Skip to playerSkip to main content
  • 2 days ago

Category

🗞
News
Transcript
00:00Smartphone, tablette, réseau, notifications et règne du like.
00:04Ce monde d'écran, c'est notre monde, celui dans lequel baignent enfants et adolescents,
00:08le fruit d'une révolution numérique qui a profondément bouleversé la parentalité
00:11et dont quelques professionnels ont perçu les effets pervers et continuent d'alerter les pouvoirs publics.
00:17Retard de langage, harcèlement, mal-être, laisser son enfant en ligne, sans garde-fou,
00:22pourrait bientôt sembler aussi inadapté que de fumer devant un nourrisson.
00:26Et toutes les familles ne jouent pas à armes égales dans cette guerre de l'attention,
00:30lancée par les géants du numérique.
00:31Jeunesse sous écran, quels risques, quelles inégalités ?
00:34Nous sommes au Centre culturel Le 104 à Paris et nous ouvrons le débat au micro sur France 24.
00:42Bonjour à tous, merci de nous avoir rejoints dans ce lieu très vivant, vous l'entendez, qui est Le 104.
00:49Docteur Diossica, vous êtes pédiatre en Seine-Saint-Denis et membre fondatrice du collectif Surexposition aux écrans.
00:55En 2019, vous mettez en place à l'hôpital une consultation spécifique pour les jeunes enfants
01:00présentant des troubles liés à la surexposition aux écrans et vous rassemblez vos observations cliniques.
01:05Dans cet ouvrage, l'enfant écran, comment échapper à ce que vous appelez la pandémie numérique ?
01:11C'est édité chez Grasset.
01:13Yves-Marie, vous êtes cofondateur de l'association Lève les yeux, que vous décrivez comme un collectif pour la reconquête de l'attention.
01:20Vous êtes le co-auteur de La guerre de l'attention.
01:23Comment ne pas la perdre ? Aux éditions l'échapper, une plongée dans le monde des captologues
01:27qui ont fait, dites-vous de notre attention, un produit comme un autre.
01:31Et Katia Roux, vous êtes chargée de plaidoyer Technologie et Droits Humains pour Amnesty International
01:36dans votre dernière enquête, entraînée dans le rabbit hole.
01:39Vous prouvez que l'algorithme de TikTok entraîne les adolescents dans une spirale résolument nocive pour leur santé mentale.
01:45L'ONG en appelle à une réaction des autorités françaises et européennes.
01:49Et pour commencer, on va peut-être donner quelques chiffres et données.
01:54Un état des lieux, le temps d'écran consommé aujourd'hui ne fait qu'augmenter.
01:57À moins de deux ans, les enfants passent entre une heure et trois heures par jour devant différents écrans,
02:02donc tous cumulés.
02:03Les troubles du langage ont doublé, c'est ce que vous avez constaté, entre 2010 et 2020.
02:08La consommation qui augmente avec l'âge pour atteindre les 6 à 8 heures par jour en moyenne à l'adolescence,
02:13jusqu'à 10 heures pour certains pendant le week-end.
02:16Et un jeune sur 10 présente une situation d'addiction comportementale.
02:21Alors peut-être d'abord, Docteur Ossika, est-ce que vous confirmez ces observations
02:24et quelle disparité se cachent peut-être derrière aussi ces chiffres ?
02:28Déjà, c'est une moyenne de temps d'écran, donc c'est déclaratif déjà.
02:32Donc c'est souvent plus, même pour les tout-petits, malheureusement.
02:36Après, ce n'est pas uniquement le temps d'écran dont il faut tenir compte.
02:38C'est l'enfermement de ces enfants qui se retrouvent sur des contenus inadaptés,
02:42qu'on aille vers TikTok pour les plus grands et surtout, moi, les tout-petits,
02:46et la plupart du temps, seuls.
02:47Ça aussi, ça montre une certaine solitude aussi du tout-petit aussi qui se retrouve seul.
02:52Et puis une autre notion qu'on oublie, c'est l'effet de ce qu'on appelle la technophérence,
02:55c'est-à-dire le temps d'écran de l'adulte, dont vous avez un peu parlé,
02:59qui va avoir un impact extrêmement important sur le tout-petit, mais même sur le plus grand,
03:02parce qu'on n'est pas disponible pour son enfant.
03:04Donc du coup, la situation des enfants est extrêmement inquiétante, vraiment, de ce fait.
03:10Sur les observations très récentes,
03:11quelles évolutions vous voyez, vous, sur les quelques dernières années ?
03:16Des retards de langage de plus en plus importants.
03:18Quand on prend les chiffres de la DGSCO qu'on a en France,
03:21c'est sûr de 2010 à 2018, c'est plus 94% de troubles du langage.
03:26Le retard de langage est de plus en plus important.
03:28Des enfants qui ne comprennent pas les interactions humaines,
03:30des enfants qui ont des troubles du sommeil,
03:32et ça, c'est commun à tous les âges, et c'est important de le redire.
03:35Et donc, quand on a des problèmes de sommeil,
03:37on a des problèmes qui sont aussi sur l'humeur,
03:40sur la concentration, sur les capacités aussi cognitives.
03:44Globalement, je ne vois que des choses qui s'aggravent,
03:48de par le fait que les parents ne sont pas suffisamment informés,
03:51voire on leur ment, puisqu'on leur parle d'éducatif, de pédagogique,
03:55notamment chez le petit, ce qui n'est pas vrai avant 6 ans.
03:58Il n'y a rien d'éducatif, et il n'y a rien qui remplace l'humain,
04:00pour que l'enfant apprenne à parler.
04:02Et ça a tendance, malheureusement, le numérique,
04:06à aggraver les inégalités sociales,
04:10contrairement à ce qu'on pourrait dire au départ,
04:11puisque les gens peu informés, mal informés,
04:14vont faire un très mauvais usage du numérique,
04:17et au dépend de la santé de leur enfant.
04:18Ça va être un propos qu'on va développer.
04:20Yves-Marie, justement, vous avez travaillé dans des centres jeunesse,
04:23vous avez alerté dès le départ là-bas, notamment à Marseille.
04:26Quel retour vous pouvez nous faire, justement,
04:28sur vos ateliers de ces dernières années ?
04:30Oui, tout à fait.
04:31Dans le sens de ce que vient de dire Sylvie,
04:34il y a un énorme impact sur le creusement des inégalités sociales,
04:39puisque nous, ce qu'on constate,
04:40puisqu'on intervient dans les écoles, les collèges, les centres sociaux,
04:45beaucoup dans les Bouches-du-Rhône,
04:46un peu partout en France, mais beaucoup dans les Bouches-du-Rhône,
04:49et on va dans les établissements privés d'Aix-en-Provence,
04:52tout comme dans les collèges des quartiers nord de Marseille,
04:56qui ont des niveaux de difficultés sociales très élevés.
04:59Et ce qu'on constate, au fil des années,
05:01puisque ça fait maintenant sept ans qu'on intervient,
05:03c'est une aggravation du problème dans les milieux les plus défavorisés,
05:07de plus en plus de temps d'écran, plus jeunes,
05:10l'arrivée de TikTok,
05:11l'arrivée de prédateurs sexuels sur les réseaux sociaux,
05:18tout un tas de nouveaux phénomènes de plus en plus inquiétants,
05:21le harcèlement qui ne cesse d'augmenter,
05:23et dans les milieux les plus privilégiés,
05:25le problème ne disparaît pas, bien sûr,
05:27mais la prise de conscience est là,
05:29beaucoup de familles qui font attention,
05:31qui verrouillent, qui ferment le temps d'écran,
05:33à des tout petits temps le week-end,
05:35qui proposent des activités extérieures,
05:37qui ont les moyens, en fait,
05:39tout simplement d'offrir des alternatives à leurs enfants.
05:44Et là, c'est assez alarmant,
05:46puisque ça implique encore un creusement supplémentaire
05:49des inégalités qui sont déjà très grandes dans notre société.
05:52Est-ce que vous diriez que la jeunesse, justement,
05:54avec qui vous avez travaillé dans ces quartiers-là,
05:56on est encore dans la sidération,
05:57on est complètement capté,
05:59et vous dites qu'il n'y a pas du tout ce recul-là
06:01qu'on voit par ailleurs ?
06:03Ah non, alors, il y a aussi plein de gens
06:04qui prennent conscience, bien sûr, du problème.
06:06Il y a de la sensibilisation qui est faite,
06:07nous, c'est notre travail,
06:08et puis il y a plein d'acteurs de terrain
06:09qui font de la sensibilisation.
06:12Mais il y a aussi des conditions sociales
06:13qui sont ce qu'elles sont,
06:15c'est-à-dire, pour certaines familles,
06:16le schéma un peu caricatural,
06:19mais qu'on retrouve très souvent,
06:20c'est une mère isolée
06:22qui a 5, 6, 7 enfants,
06:24un trafic de drogue en bas dans la cité,
06:27et donc c'est dangereux
06:28de laisser traîner ses enfants.
06:30Et donc, finalement, par nécessité,
06:32il y a un isolement dans la maison,
06:35enfin, dans l'immeuble,
06:37dans l'appartement,
06:39et avec des écrans
06:39qui servent un petit peu de nounou,
06:41et donc une espèce d'enfermement
06:44encore plus fort dans les écrans
06:46à tous les âges.
06:49Alors là, c'est un peu caricatural,
06:50mais c'est vraiment des situations
06:51qu'on retrouve régulièrement
06:52dans nos ateliers,
06:54et on voit bien qu'il y a...
06:55Et ce qui est d'autant plus douloureux,
06:56c'est que la prise de conscience
06:57s'accompagne de cette frustration
06:58à avoir du mal à agir,
07:00à avoir du mal à se sortir
07:01de ces écrans,
07:03d'autant qu'une fois qu'on a commencé
07:04à les utiliser,
07:05c'est d'autant plus dur d'en sortir
07:07parce qu'il y a de l'habituation,
07:08un phénomène d'addiction,
07:09quand même, qui se joue.
07:10Katia Roux, vous, vous êtes beaucoup,
07:11alors pas forcément dans la prévention,
07:13mais dans le plaidoyer,
07:13vous essayez d'alerter, justement,
07:14sur les problèmes de ces utilisations
07:16un peu abusives des écrans.
07:18Est-ce que...
07:19Comment vous voyez ce décalage,
07:20justement, entre une partie
07:22de la population qui est alertée
07:24et une autre qui ne l'est pas du tout ?
07:26Alors, je pense qu'on n'informe
07:27jamais suffisamment.
07:29C'est toujours très important
07:30de continuer à faire prendre conscience
07:32aussi des dangers liés
07:33à la conception même
07:35de ces plateformes.
07:36Ça a été dit, en fait.
07:37La plupart des personnes
07:38avec qui on a discuté,
07:39y compris dans le cadre
07:40de notre dernière enquête sur TikTok,
07:42nous ont dit leur dépendance,
07:43mais leur impuissance, en fait,
07:44à se libérer de ces plateformes
07:46parce que tout est fait
07:48pour garder le plus longtemps possible
07:49les utilisateurs
07:50et les utilisatrices en ligne.
07:52Donc, c'est extrêmement important,
07:54évidemment, de sensibiliser,
07:55de mobiliser sur le sujet,
07:56de comprendre comment fonctionnent
07:57ces plateformes
07:57parce que tout ça émane de choix
07:59des entreprises,
08:00des réseaux sociaux
08:01qui fonctionnent toutes
08:02sur le même modèle
08:03de captation de l'attention,
08:06quelles que soient, finalement,
08:07les conséquences.
08:09Mais en premier lieu,
08:10il faut aussi comprendre
08:11que la responsabilité,
08:12elle repose justement
08:13sur ces plateformes,
08:14sur les entreprises
08:14des réseaux sociaux
08:15qui créent la dépendance,
08:17qui peuvent ensuite
08:17prendre tout un tas de mesures,
08:19soi-disant,
08:20pour mieux déconnecter
08:21ou des missions de bien-être
08:22ou ce genre de choses,
08:23mais des mesures
08:24pour réparer, finalement,
08:25des maux
08:26que les plateformes créent elles-mêmes.
08:28Donc, nous,
08:28ce qu'on a constaté,
08:29effectivement,
08:30c'est qu'il y a ce besoin
08:30de sensibilisation,
08:32mais qu'il y a aussi
08:33beaucoup de personnes
08:34qui ont conscience,
08:36finalement,
08:36de ce phénomène,
08:37de cette addiction,
08:38mais qui n'arrivent pas
08:38à s'en sortir.
08:39Et ça ne peut pas reposer
08:40à titre individuel
08:41sur les épaules des enfants,
08:43des adolescents,
08:44des parents.
08:45Ça doit être régulé
08:47par les pouvoirs publics.
08:49Il doit y avoir
08:49des règles
08:50qui s'imposent
08:51aux plateformes
08:51et il y en a.
08:52Le problème,
08:53c'est qu'aujourd'hui,
08:53ces règles ne sont pas
08:54pleinement respectées.
08:55Les plateformes,
08:56et TikTok en particulier,
08:57puisque nous,
08:57on a enquêté sur le sujet,
08:59annoncent tout un tas
09:00de mesures justement
09:01pour atténuer
09:01les risques d'addiction,
09:03les risques d'être exposés
09:05à des contenus
09:05potentiellement préjudiciables,
09:08aujourd'hui,
09:08avec l'enquête
09:09qu'on a menée,
09:09on a prouvé
09:10que ces mesures
09:11étaient tout à fait inefficaces,
09:12tout à fait inadaptées
09:13et qu'on est très,
09:14très loin,
09:15en réalité,
09:16de remplir,
09:17que les plateformes
09:17remplissent les obligations
09:18au regard des textes
09:20qui existent.
09:21Quels axes,
09:22là,
09:22vous travaillez sur le pôle
09:23technologie et droits humains,
09:24quels axes vous paraissent
09:25les plus urgents
09:26à défendre aujourd'hui ?
09:28Aujourd'hui,
09:29il y a une reconnaissance
09:31de la responsabilité
09:32des plateformes
09:33qu'il faut absolument travailler.
09:35Il y a un déni total
09:36de responsabilité,
09:37en fait,
09:38des plateformes
09:38qui vont dire
09:39c'est de la faute
09:40des utilisateurs
09:40et des utilisatrices
09:42qui postent des contenus
09:42problématiques,
09:44c'est la faute des parents
09:45qui n'encadrent pas suffisamment,
09:47qui ne contrôlent pas suffisamment.
09:49Nous,
09:49on a rencontré
09:50un certain nombre de familles
09:51dans notre enquête
09:52qui nous ont dit
09:52en fait,
09:53on accompagne
09:53le plus possible
09:54nos enfants.
09:55Il y a des parcours
09:56de soins qui se font,
09:57on fait le contrôle
09:57parental,
09:58on réduit à un quart d'heure
09:59par jour
10:00l'utilisation,
10:01par exemple,
10:01de TikTok
10:02et ça ne suffit pas
10:03parce qu'en fait,
10:04les contenus délétères,
10:05ils arrivent sur la plateforme
10:06sans que les jeunes
10:07les demandent.
10:08L'algorithme,
10:09en l'occurrence de TikTok,
10:10mais c'est le cas
10:11pour l'ensemble
10:11des entreprises
10:12et des réseaux sociaux,
10:13piste tout ce que
10:14les enfants font en ligne
10:15pour proposer
10:16des contenus
10:16ultra personnalisés
10:18pour les maintenir
10:19encore plus longtemps
10:20en ligne
10:20et donc leur proposer
10:21davantage de contenus
10:22personnalisés
10:23et faire de la publicité
10:24ciblée.
10:25C'est le modèle
10:25de développement
10:26de ces plateformes.
10:27Donc il y a vraiment
10:28besoin de rompre
10:29avec ce déni
10:30de responsabilité
10:32et de la replacer
10:33là où elle est
10:33en premier lieu,
10:34c'est-à-dire
10:34sur les plateformes.
10:35Et ensuite,
10:36il faut changer
10:37ce modèle
10:38de développement économique
10:39qui est tout simplement
10:40dangereux.
10:41Là, on l'a montré
10:42pour la santé mentale
10:43des jeunes,
10:43c'est vrai pour plein
10:44d'autres situations.
10:45Une économie
10:46qui est basée
10:47sur l'attention,
10:48une économie
10:48qui est basée
10:49sur la captation
10:49des données personnelles
10:50et la surveillance
10:51ubiquitaire en ligne,
10:52elle fait forcément
10:54des dégâts.
10:54Et là, en l'occurrence,
10:55on parle de droits
10:56à la santé mentale,
10:57physique,
10:58on peut penser aussi
10:58au droit à la liberté
10:59d'opinion.
11:00Il y a tout un tas
11:00de droits humains
11:01qui sont affectés
11:02par ces pratiques-là
11:03et c'est extrêmement grave.
11:04Il faut réagir tout de suite.
11:07Justement,
11:07on parlait de l'adolescence
11:08qui peut être ciblée
11:09par TikTok.
11:10D'ailleurs,
11:10il n'y a pas que les adolescents
11:11qui sont sur TikTok,
11:12il y a des adultes
11:12mais il y a aussi
11:13des très jeunes,
11:13mais il y a aussi
11:14tout un tas d'autres contenus
11:15qui peuvent paraître
11:15bien plus anodins
11:16et qui sont eux-mêmes
11:17ciblés.
11:17qui fonctionnent
11:19exactement
11:20dans le même schéma
11:22que vous venez de dire,
11:23quel que soit
11:23l'âge de l'enfant.
11:25Pour les citer
11:25une seule fois,
11:26YouTube Kid
11:27est une des applications
11:28plateformes
11:28que les parents connaissent
11:29quasiment tous.
11:30C'est ce que j'ai découvert
11:31au fur et à mesure
11:31de ces dernières années
11:32et qui fonctionne
11:33exactement de la même façon
11:35avec la publicité ciblée,
11:36avec la prise des données
11:37et avec l'algorithme.
11:39Et derrière ça,
11:39il y a des bébés
11:40de 18 mois,
11:40voire encore plus jeunes
11:41maintenant,
11:42un an,
11:43et avec des parents
11:44qui pensent que,
11:44comme je l'ai dit tout à l'heure,
11:45que c'est éducatif,
11:46pédagogique.
11:47Et les parents sont persuadés
11:48et donc on voit arriver
11:49des enfants de 18 mois
11:50qui font l'alphabet
11:51et qui ne savent pas dire
11:52papa, maman.
11:53Enfin, c'est grave.
11:54Vraiment,
11:54il y a de quoi être
11:55très en colère
11:55parce qu'on est en train
11:56de produire
11:57des troubles du développement
11:59chez des enfants
12:00qui peuvent être fragilisés
12:02effectivement dès leur naissance
12:03par différents problèmes
12:04et des enfants que je vois
12:05qui ont normalement
12:07un développement
12:07qui devrait être
12:08tout à fait adapté
12:09et correct
12:10et qui se retrouvent
12:11en défaut,
12:12en difficulté
12:12de retard de langage
12:13parce qu'on leur a donné
12:14des produits
12:15qui sont addictifs,
12:16on va le redire,
12:17pour le tout petit aussi
12:18qui ne lâche pas,
12:19qui se met en colère.
12:20Tous les parents
12:20qui nous écoutent
12:21ont dû vivre le moment
12:22où on l'enlève,
12:23je fais la colère,
12:24je ne veux plus manger
12:24ou je ne veux plus
12:25faire ceci, cela.
12:26Et donc du coup,
12:27c'est comme ça
12:27qu'on se retrouve
12:28à des temps de 5 minutes
12:29qui passent à 3 heures,
12:306 heures
12:31et qui empiètent complètement
12:33ce temps volé
12:34à toutes les activités
12:34que devrait faire un enfant
12:35pour aller bien.
12:37Et le parent à côté
12:37qui regarde aussi son écran
12:39parce que lui aussi
12:40est pris dans ce piège.
12:41En fait,
12:42on donne un produit addictif
12:43et on le sait
12:44sans donner de règles,
12:45sans donner de bonnes emplois
12:46et sans protéger
12:47les plus vulnérables
12:48et il y en a beaucoup.
12:49Ce n'est pas seulement
12:50les enfants en difficulté
12:51parce qu'un enfant
12:52par définition,
12:53un adolescent,
12:53est vulnérable.
12:54Vous parlez de YouTube-leach
12:55dans votre livre,
12:56cet appauvrissement du langage.
12:58Comment vous l'avez aperçu ?
13:01Vous avez vu des vraies différences
13:02entre des enfants avant 2010,
13:04avant les écrans
13:04et ensuite après 2010 ?
13:06Oui.
13:07D'abord, ce n'est pas un langage,
13:08c'est le langage des enfants
13:08qui n'ont pas de langue,
13:09qui n'ont pas de langage.
13:11C'est une répétition
13:12de ce qu'ils ont entendu
13:13pendant des heures.
13:14Et moi, je travaille
13:15depuis plus de 30 ans
13:16et je ne voyais pas
13:17ce genre de choses.
13:18Je ne voyais pas
13:19des enfants arriver à 18 mois
13:20ne dire aucun mot
13:21et chanter l'alphabet,
13:23dire des mots en anglais,
13:24alors que les parents
13:25ne sont pas anglophones
13:26ou raconter des choses
13:27que maintenant je perçois
13:28avec mon infirmière
13:29qui sont des génériques
13:30de dessins animés
13:31ou autres qu'ils entendent.
13:32Quand vous entendez
13:33pendant des heures,
13:34des milliers d'heures presque,
13:35ce genre de choses,
13:36vous le répétez.
13:37Un enfant devient
13:37un petit perroquet
13:38et ce n'est pas du langage.
13:40Les parents sont parfois,
13:41c'est horrible,
13:42fiers de venir en disant
13:43mon enfant fait l'alphabet,
13:44il a 3 ans.
13:45Mais est-ce qu'il dit
13:45papa, maman ?
13:46Non, il ne dit pas.
13:47Donc c'est ça le YouTube-leach,
13:48c'est la répétition
13:49de ces mots
13:50qu'ils ont entendus
13:50pendant des heures
13:51et qui n'est pas du langage
13:52contrairement à ce que
13:52les parents pensent.
13:53Donc il y a une illusion
13:54des principes éducatifs
13:55de ces plateformes-là ?
13:56Il n'y a rien d'éducatif,
13:58aucune application
13:59actuellement,
14:00avant 6 ans,
14:01n'a montré
14:01ses performances éducatives,
14:03pédagogiques,
14:03aucune.
14:04Par contre,
14:05on laisse sur les médias,
14:06les radios,
14:06dire à certaines personnes
14:08qui font ces plateformes
14:08qu'elles le sont.
14:10Elles alexent
14:11ces pouvoirs-là,
14:12ils ne l'ont pas.
14:13Les seules qui ont fait
14:14ça sérieusement,
14:14c'est aux Etats-Unis
14:15dans les années 60,
14:16c'est Sésame Street
14:17ou Unru-Sésame
14:18qui a fait quelque chose
14:19de qualité,
14:20vraiment dédié
14:20à aider les enfants.
14:22Ça date un peu.
14:22Et il n'y a plus rien
14:22d'autre depuis.
14:24Après 6 ans,
14:24c'est une autre histoire.
14:25Mais avant,
14:26il n'y a que l'humain,
14:27l'adulte disponible
14:28qui peut aider l'enfant
14:30à progresser.
14:31Quelle est votre perception
14:33sur cette capacité éducative
14:36du numérique aujourd'hui ?
14:37Est-ce que vous servez
14:38d'ailleurs du numérique
14:38même parfois
14:39pour développer
14:41votre propos ?
14:43Beaucoup de scepticisme
14:45effectivement.
14:46aussi sur les vertus
14:48dites éducatives
14:49du numérique.
14:50Je pense qu'il faut
14:51avoir une lecture
14:53un petit peu
14:53objective des choses
14:56et voir qu'il y a
14:57des enjeux industriels,
14:58des enjeux économiques
14:59derrière.
14:59On a parlé du rôle
15:00des entreprises
15:01qui monétisent
15:03notre temps d'écran
15:04et notre attention.
15:05Il faut voir aussi
15:06que ces entreprises
15:07ont un intérêt
15:09financier
15:11à voir se développer
15:12l'usage
15:13des technologies numériques
15:15le plus tôt possible.
15:16et donc il y a
15:17tout le secteur
15:17qu'on appelle
15:17de la EdTech
15:18donc des technologies
15:19de l'éducation
15:20qui est encouragée
15:21par l'État,
15:22par le gouvernement,
15:23par l'Union européenne.
15:24Il y a toujours
15:25derrière les objectifs
15:26de croissance
15:27et donc il y a eu
15:29cette opportunité,
15:30cet effet d'opportunité
15:31de se dire
15:31l'éducation nationale
15:32peut être un levier
15:33pour promouvoir
15:34les EdTech
15:35pour en fait
15:36produire de la croissance
15:37via l'éducation nationale
15:38ce qui est au détriment
15:41en fait de l'éducation
15:42in fine.
15:43Et donc on a vu arriver
15:44des tablettes individuelles
15:46au collège,
15:47enfin lycée,
15:48puis collège,
15:49puis primaire,
15:50puis désormais
15:50des écrans maternels
15:52qui se sont multipliés,
15:57les logiciels,
15:58les espaces numériques
15:59de travail
16:00qui finalement ramènent
16:02les familles
16:02et les enfants
16:03sur Internet
16:04le soir
16:05et qui créent
16:05une espèce
16:05de dépendance
16:07aux écrans
16:07en continu.
16:09Oui parce qu'il arrive
16:09que justement
16:10le numérique
16:11vienne par l'école
16:12de par justement
16:13ces plateformes-là
16:14où il faut se connecter
16:15pour avoir
16:15les dernières informations
16:16de ses professeurs,
16:17ses notes
16:18et ça,
16:19considérer que c'est problématique.
16:20Ah ben c'est totalement problématique,
16:21c'est très pernicieux
16:22parce que,
16:23et on voit bien d'ailleurs
16:24par exemple
16:24quand on écoute
16:25la parole publique aujourd'hui
16:26notamment du côté du gouvernement,
16:28on a à la fois
16:28un discours
16:29qui enfin prend conscience
16:30des dangers
16:31de la surexposition
16:32aux écrans
16:32et commence un petit peu
16:34à être sensible,
16:34à alerter
16:35et à la fois
16:36continue à promouvoir
16:38l'intelligence artificielle
16:40qu'il faut utiliser
16:42le plus possible
16:43avec toujours
16:44ce discours
16:45du bon usage
16:46des écrans.
16:46Donc il y a
16:47tout un arc
16:48comme ça argumentatif
16:49qui permet
16:49de ménager
16:50la chèvre et le chou
16:52mais qui est en fait
16:53dans un espèce
16:54de déni des réalités
16:55qui est que
16:56maintenant en fait
16:56comme le disait
16:57Madame Ozyka,
16:59un enfant apprend
17:01grâce à une désinteraction
17:02humaine
17:03et on a besoin
17:06d'attention humaine
17:07et de concentration
17:08pour apprendre,
17:10pour se développer
17:11et voilà,
17:13il les écrampent.
17:14Je pense qu'il faut
17:15vraiment retarder
17:16au contraire
17:16leur arrivée
17:18et les conserver davantage
17:21pour les fonctions
17:22professionnelles,
17:23enfin,
17:23voire des fonctions
17:24éducatives
17:24peut-être tard,
17:25peut-être sur certains usages,
17:27apprendre à utiliser
17:28le numérique,
17:28ça c'est évidemment pertinent.
17:29nous on est pour l'éducation
17:31au numérique
17:32mais pas par le numérique.
17:34Vous parliez tout à l'heure
17:35d'addiction,
17:36l'addiction c'est un terme
17:37qui n'est,
17:37l'addiction aux écrans
17:38semble-t-il,
17:39c'est un terme
17:40qui n'est pas reconnu
17:40scientifiquement
17:41mais que vous défendez.
17:42Oui,
17:42je défends parce que
17:43c'est un constat clinique.
17:44Alors on parle
17:45d'usage problématique,
17:46pourquoi pas,
17:47mais enfin on se retrouve
17:47avec tous les critères
17:48qu'on retrouve,
17:49il y a neuf critères
17:50qu'on retrouve de façon
17:51assez simple,
17:53c'est-à-dire
17:53j'en veux toujours plus,
17:54ce qui me fait plaisir,
17:55c'est ça,
17:56je ne pense qu'à ça,
17:57quand on arrête,
17:58je me mets en colère
18:00et je réclame,
18:01enfin les bébés,
18:02je parle bien de bébés,
18:03de 12, 15, 18 mois
18:05expriment tout à fait
18:06ce genre de symptômes
18:07et quand on arrête,
18:09parce que c'est ce que je fais
18:09à ma consultation
18:10sur exposition écran,
18:11quand j'explique aux parents
18:12la notion de justement
18:14l'effet de la technoférence,
18:15l'effet de ce que font
18:16ces écrans,
18:17on arrête,
18:18c'est dur pendant une semaine,
18:19ils le disent très bien,
18:20comme quelqu'un
18:21qui serait sevré
18:22de quelque chose
18:22qui a envahi totalement sa vie
18:25et au bout de 5, 6 jours,
18:26donc ça c'est un message positif
18:27pour les parents
18:28qui peuvent nous écouter,
18:29on arrive vraiment
18:30à faire de belles choses
18:31et dans la majorité des cas,
18:32progressivement,
18:33les choses s'améliorent,
18:34pas complètement pour tous,
18:35mais s'améliorent
18:36de façon franche.
18:36Il n'y a pas
18:37que l'arrêt des écrans,
18:38il ne faut pas l'oublier
18:38ce que les détracteurs
18:39nous disent ou là.
18:40Il y a aussi évidemment
18:41reprendre une parentalité engagée
18:44et faire comprendre aux parents
18:45que lui fait mieux
18:46que le numérique
18:47parce qu'il y a
18:48cette notion-là aussi
18:49beaucoup,
18:50je vois que les parents
18:51pensent que le numérique
18:52fait bien mieux qu'eux,
18:53qu'ils n'ont plus confiance en eux,
18:54ils sont des fois seuls,
18:55des mamans isolées,
18:56ainsi de suite,
18:56et ils pensent
18:57que le numérique
18:57va faire beaucoup mieux,
18:58fascinés par aussi
18:59cette notion du numérique
19:00et aussi par cette nouveauté
19:02qui fait qu'il faut aller de l'avant
19:03mais en fait non,
19:05l'humain reste encore essentiel,
19:06heureusement d'ailleurs.
19:08dans les livres sur le fait
19:08qu'un petit enfant,
19:10enfin dans la petite enfance,
19:11on a besoin de très peu de choses
19:12là où en fait,
19:14parfois le parent craint
19:15de ne pas donner assez
19:16parce qu'on est aussi
19:17dans cette société-là
19:18de consommation,
19:19de stimulation.
19:20Il a besoin de disponibilité
19:21de l'adulte.
19:22L'adulte qui est auprès de lui,
19:24il doit être disponible
19:25et c'est la plus belle chose
19:26qu'on peut donner à un enfant
19:27avec pas grand-chose à côté
19:28et donc dès la maternité,
19:30moi je plaide
19:31pour que les choses
19:31soient faites très précocement,
19:33dès la maternité,
19:34un bébé,
19:34des fois la première chose
19:35qu'il va regarder,
19:36c'est un rectangle,
19:36un rectangle noir
19:38au lieu d'avoir le regard
19:39de son papa et sa maman
19:40et c'est comme ça après
19:41à la salle d'accouchement,
19:43c'est de plus en plus fréquent
19:44et en maternité
19:45parce qu'on filme tout
19:46et le numérique est partout.
19:47Le bébé,
19:48il veut les yeux de l'humain,
19:49les yeux du père,
19:50de la mère,
19:51de celui qui s'occupe de lui,
19:52c'est essentiel.
19:52Le langage se construit
19:53dans le regard.
19:55C'est parce qu'on se regarde
19:56qu'un bébé va comprendre
19:57ce qui se passe
19:58et c'est le seul moyen
19:59pour avancer.
20:00Vraiment le visuel
20:01chez l'enfant est essentiel.
20:02Donc s'il n'a pas ça,
20:03il perd beaucoup.
20:04Donc le cerveau social,
20:05c'est ça dont vous parlez ?
20:07Oui, absolument, c'est essentiel.
20:07Je pense que vous travaillez aussi
20:08un peu sur ces questions-là.
20:09Ce cerveau social
20:10qui peut être un petit peu
20:11malmené.
20:12Et la disponibilité de l'adulte,
20:13je répète,
20:13la technoférence,
20:14ça fait vraiment des dégâts importants.
20:15Oui, ça on va clairement en parler
20:15parce que je pense
20:16qu'on a tous une grosse responsabilité
20:18mais sur les parents engagés
20:19dont vous parliez,
20:20on a besoin de parents engagés.
20:22En lisant votre rapport,
20:24on voit qu'il y a des parents
20:25qui se sont battus
20:25à essayer de signaler,
20:27signaler, signaler
20:28tous les contenus mortifères
20:30qui s'aperçoivent sur TikTok
20:32et en fait,
20:32c'est totalement chronophage
20:34et c'est le combat de David
20:36contre Goliath,
20:36en fait,
20:36ça ne fonctionne pas.
20:38Absolument,
20:38c'est chronophage
20:39et puis ils l'ont fait en vain,
20:40surtout parce que,
20:41donc on a rencontré
20:42un certain nombre de familles
20:43qui se mobilisent aujourd'hui
20:45dans le cadre du collectif
20:46Algos Victima
20:47en portant plainte contre TikTok
20:49qu'ils estiment responsables
20:51de la détérioration aussi
20:52de la santé mentale
20:53de leurs enfants.
20:55Ce sont des familles
20:56qui nous disent
20:57comment elles ont essayé
20:59donc de lutter
21:00contre cette addiction,
21:01d'accompagner leurs enfants,
21:03de faire imposer
21:04ce contrôle parental
21:05et de signaler
21:07tous les contenus
21:07potentiellement problématiques
21:08et ça n'a pas marché.
21:10Et ces familles nous ont dit
21:11à quel point finalement
21:12elles n'avaient pas conscience
21:13avant que pour certaines
21:14le pire arrive
21:16que leurs enfants,
21:17leurs adolescentes,
21:18en l'occurrence
21:18c'était beaucoup
21:19des jeunes filles,
21:20étaient aspirées
21:21dans ces spirales
21:21de contenu toxique.
21:23C'était des jeunes filles
21:24qui n'allaient pas forcément
21:25très bien,
21:26en tout cas qui étaient vulnérables.
21:27On l'a dit,
21:27la période de l'adolescence
21:28est une période
21:29qui peut être difficile
21:31et où on peut être
21:32plus ou moins fragile
21:33ou fragilisé.
21:35Les jeunes qui ont témoigné
21:37nous ont dit finalement
21:37que TikTok leur avait
21:39maintenu la tête sous l'eau.
21:40C'est vraiment l'expression
21:41qui est souvent revenue,
21:43c'est-à-dire des personnes
21:44qui essaient de s'en sortir
21:45avec des parents
21:45qui essayaient aussi
21:46de leur proposer autre chose,
21:49mais l'addiction était telle
21:51et finalement ces spirales
21:53dans lesquelles ils sont tombés
21:55étaient tellement grandes
21:57et infinies
21:58que c'était très difficile
21:59d'en sortir.
22:00Et encore une fois,
22:01ce ne sont pas des contenus
22:02qui ont été choisis
22:03et voulus.
22:04C'est parce que l'algorithme
22:05a estimé que tel profil
22:08pouvait être intéressé
22:09par tel sujet
22:10qu'il a poussé ces sujets
22:12sur le fil ultra personnalisé
22:13dans le fameux fil
22:14pour toi de la plateforme.
22:16Et ça revient aussi
22:17à cette question
22:18de reprendre le contrôle
22:19aussi sur ces plateformes numériques,
22:20c'est-à-dire est-ce qu'on veut
22:22à un moment donné
22:22pouvoir choisir délibérément
22:24les contenus
22:25qu'on veut recevoir,
22:27les vidéos qu'on veut regarder
22:28ou est-ce qu'on va subir
22:29finalement ce que l'algorithme
22:31aura perçu
22:32de nos centres d'intérêt,
22:33de notre niveau de bien-être.
22:35L'algorithme n'est pas conçu
22:37en soi pour promouvoir
22:39des contenus potentiellement
22:40préjudiciables.
22:41Mais s'il détecte
22:43qu'il y a un intérêt
22:43pour ce sujet,
22:44il va les pousser
22:45coûte que coûte
22:46et quelles que soient
22:47finalement les conséquences,
22:48y compris des conséquences
22:49qui peuvent être dramatiques.
22:50Et on en a eu
22:51quelques exemples
22:53en fait dans notre enquête
22:54finalement d'adolescentes
22:56qui ont fini
22:57par se donner la mort
22:58après avoir été exposées
23:00à des vidéos
23:00qui partageaient
23:02des méthodes
23:02sur comment passer à l'acte.
23:04Après avoir été exposées
23:05à des vidéos
23:06qui banalisaient
23:07complètement la dépression,
23:09voire qui romantisaient
23:10le suicide,
23:10il faut s'imaginer
23:11des paysages
23:12de bord de mer
23:13ou de montagne
23:15avec des messages
23:16en disant
23:17voilà,
23:18ça ira mieux
23:18si tu passes à l'acte,
23:19etc.
23:20Et toute une communauté
23:21qui encourage aussi autour.
23:23Comment vous expliquez
23:24à ce stade
23:25que soient favorisés
23:26les contenus mortifères
23:27sur des contenus
23:28on peut imaginer
23:29peut-être plus bienveillants
23:30ou qui tireraient vers le haut ?
23:33Alors,
23:33ce n'est pas tant
23:33que l'algorithme
23:34va favoriser
23:35des contenus,
23:36on va dire,
23:37négatifs
23:37versus des contenus positifs,
23:38c'est que
23:39s'il identifie
23:40un intérêt
23:41pour la santé mentale,
23:42il va pousser
23:42ce genre de contenu.
23:43Nous, on a fait une enquête
23:44très simple.
23:45On a fait des tests
23:46avec trois faux comptes
23:48d'adolescents
23:48et d'adolescentes
23:49de 13 ans
23:50enregistrés en France
23:51sur TikTok
23:52et le fil pour toi.
23:53On a fait défiler
23:54des vidéos
23:55et dès qu'il y avait
23:55une vidéo liée
23:56à la santé mentale,
23:58on l'a regardée deux fois.
23:59C'est tout ce qu'on a fait.
24:00Alors,
24:00des vidéos liées
24:00à la santé mentale,
24:01ça peut aller
24:02du développement personnel
24:03à des vidéos de coaching
24:04qu'on peut retrouver en ligne
24:05jusqu'à des vidéos
24:06effectivement
24:07qui font part
24:07d'une détresse ou autre.
24:08C'était très, très large.
24:10Simplement,
24:11en regardant deux fois
24:11ces vidéos,
24:12on s'est rendu compte
24:13qu'il fallait
24:14entre 15 et 20 minutes
24:15pour que les trois fils
24:16pour toi de la plateforme
24:18soient quasiment
24:19entièrement remplis
24:21de vidéos de ce type
24:22avec près de la moitié
24:23de contenu
24:24cette fois-ci triste
24:24et dépressif.
24:26Et au bout de 45 minutes,
24:27on a eu deux des trois comptes
24:28avec des premières vidéos
24:29liées au suicide
24:29et entre trois et quatre heures,
24:31on a eu carrément
24:32là sur les trois comptes
24:33des vidéos
24:33qui partageaient
24:34l'intention des jeunes
24:36de passer à l'acte,
24:37y compris avec des méthodes
24:38pour le faire.
24:39Ça va très vite
24:39et ce n'était pas
24:40une intention
24:40de pousser forcément
24:42ces contenus,
24:43c'est parce que l'algorithme
24:44a détecté
24:44qu'il y avait un intérêt.
24:46Et là,
24:46on a simplement regardé
24:47deux fois une vidéo,
24:48on n'a rien partagé,
24:49on n'a rien commenté,
24:51on n'a rien liké,
24:51on n'a rien recherché.
24:52L'indication
24:53qui était envoyée
24:53à l'algorithme
24:54était quand même
24:54très minime.
24:56Et pour autant,
24:56ça a suffi
24:57à avoir des fils
24:58qui étaient inondés
24:59de contenus
24:59potentiellement préjudiciables
25:01parce que pour des adolescents
25:03et des adolescentes
25:03de 13 ans
25:04qui ne vont pas bien,
25:05recevoir ce genre
25:06de vidéos
25:06de manière répétée,
25:07voire continue,
25:08nous-mêmes,
25:10quand on a fait l'expérience,
25:11ça nous mettait déjà
25:12dans un état
25:12pas forcément évident.
25:14Donc on peut imaginer
25:14pour des jeunes
25:16qui ne sont pas forcément
25:17très très bien
25:17dans leur corps,
25:19dans leur tête,
25:19etc.,
25:20l'impact que ça peut avoir.
25:21En quelques heures.
25:23Quelques heures.
25:24Monsieur Marie,
25:25justement,
25:26on peut peut-être
25:26s'arrêter quelques instants
25:27sur les techniques
25:28déployées pour capter
25:29les cerveaux de la jeunesse.
25:30Vous avez vraiment
25:31travaillé dessus
25:31dans votre livre
25:32La guerre de l'attention.
25:33Est-ce que vous pouvez
25:34nous en dire
25:34un petit mot ?
25:36Oui, alors effectivement,
25:36il y a tout un panel
25:37de techniques mises en œuvre.
25:39Ils ont développé
25:41toute une science
25:41qu'ils appellent
25:42la captologie
25:42à l'Université de Stanford,
25:44notamment,
25:45ce fameux laboratoire
25:46de captologie
25:47où ils vont croiser
25:49le travail
25:49de neuroscientifiques,
25:51de psychologues,
25:53d'ingénieurs
25:54pour aller concevoir
25:56des petites techniques
26:00sur l'application,
26:02sur l'interface
26:03qui vont jouer
26:04sur des zones du cerveau,
26:05produire de la dopamine
26:06et produire cette envie
26:08d'y retourner,
26:10de retrouver de la dopamine,
26:12d'avoir sa dose,
26:13de créer une dépendance,
26:15une véritable addiction chimique.
26:17Et alors,
26:17parmi les plus connus,
26:19il y a celle
26:19de la peur de manquer,
26:22donc,
26:23d'envoyer des notifications
26:24pour faire ressentir
26:26qu'on va peut-être
26:26rater quelque chose.
26:28Il y a
26:29la récompense aléatoire,
26:32qui est sans doute
26:32un des mécanismes
26:33les plus importants
26:34dans la captologie,
26:35l'idée de
26:36qu'on ne sait pas
26:38ce qu'on va avoir
26:39quand on va
26:40scroller,
26:41est-ce que ce sera positif,
26:42est-ce que ce sera négatif,
26:43est-ce que ce sera neutre
26:44comme sensation.
26:47Et donc,
26:47parfois,
26:47on aura des petites lumières
26:48rouges un petit peu
26:49satisfaisantes,
26:51parfois,
26:51il n'y aura rien,
26:52des likes
26:53qui gratifient,
26:55parfois,
26:55rien.
26:56Et ça,
26:56ils l'ont compris,
26:57ils le maîtrisent
26:57à un point,
26:58enfin,
26:58c'est des artistes,
26:59en fait,
26:59de l'addiction
27:02et de la captation
27:03de l'attention,
27:04puisque,
27:05comme ça a pu être dit,
27:06c'est la base
27:07de leur modèle économique.
27:08On télécharge
27:09ces applications
27:09gratuitement
27:10et derrière,
27:12les revenus publicitaires
27:14qu'obtiennent
27:14ces plateformes
27:15sont liés
27:16au temps d'écran
27:18et aux interactions
27:19que les utilisateurs
27:20vont avoir.
27:22L'idée derrière,
27:22c'est qu'évidemment,
27:23cette jeunesse
27:23est devenue,
27:24l'attention de cette jeunesse
27:25est devenue
27:26un produit comme un autre.
27:28Est-ce que c'est des choses
27:29que vous développez
27:30justement avec les jeunes
27:31de, par exemple,
27:32à Marseille
27:32et quel est leur retour
27:33là-dessus ?
27:34Est-ce que c'est important
27:34pour eux
27:35ou est-ce que finalement
27:35ils ont accepté l'idée ?
27:37Non,
27:37effectivement,
27:37nous,
27:37c'est vraiment l'idée,
27:38c'est de nourrir
27:39leur esprit critique
27:40et leur montrer
27:42la part de manipulation
27:43qu'il y a derrière
27:44ces applications
27:45et ça,
27:46c'est souvent quelque chose
27:47dont ils n'ont pas
27:47vraiment conscience
27:48et ça,
27:50je pense que c'est
27:50une des forces
27:50de notre travail
27:51et on en est assez fiers,
27:53arriver à au moins
27:53planter cette graine
27:54d'esprit critique,
27:55leur dire,
27:56voilà,
27:56vous êtes l'objet
27:57de manipulations
27:57de la part d'entreprises
27:59multimilliardaires
28:00qui ont parfois
28:02en plus des agendas
28:03géopolitiques,
28:04mais bon,
28:05passons là-dessus
28:06parce que c'est pas forcément
28:06ça dont on va parler
28:07aux jeunes,
28:07mais en tout cas
28:08de leur montrer
28:08que c'est surtout
28:10pour s'enrichir
28:12qu'ils manipulent
28:13leur attention
28:13et qu'ils font exprès
28:14de les rendre addicts
28:16et donc que leur part
28:17à eux de libre arbitre
28:18est en fait très réduite
28:20et que s'ils passent
28:21autant de temps,
28:22c'est pas tellement
28:24de leur fait,
28:25ils sont souvent
28:25l'objet de manipulations
28:27par des gens
28:27très riches,
28:28très organisés,
28:29très intelligents
28:30et qui sont simplement
28:31dans une stratégie lucrative
28:33d'enrichissement.
28:34Et je pense que ça joue,
28:35ça va les bousculer,
28:36ça peut les motiver
28:37à agir.
28:38Après,
28:39on le sait pour des gens
28:40qui sont accros au tabac
28:41et qui sont adultes,
28:42ça va pas être facile
28:43de s'arrêter.
28:44On peut même parler
28:44des adultes accros
28:45à leur smartphone
28:46qui n'arrivent pas
28:47à s'arrêter
28:47à utiliser leur smartphone.
28:49Espérer d'un enfant
28:50ou d'un adolescent
28:50que de lui-même
28:52parce qu'il a pris conscience,
28:53il va s'arrêter.
28:54C'est naïf et utopique,
28:56en fait.
28:57Il faudra une participation
28:58de la puissance publique
28:59nécessairement pour un...
29:01Justement,
29:01alors là,
29:01c'est intéressant
29:02parce que je m'adresse
29:02au docteur.
29:03Est-ce qu'il y a
29:04quelque chose
29:04spécifique
29:05dans le cerveau
29:06de l'enfant
29:06et donc de l'adolescent
29:07qui fait qu'il n'aura pas
29:08le recul peut-être
29:09d'un adulte ?
29:10Je ne dédouane pas
29:11du tout les adultes.
29:11Oui,
29:12c'est ce que j'allais dire
29:12parce que les adultes aussi...
29:14Mais est-ce qu'il faut
29:14porter une attention particulière
29:16et je pense que c'est
29:17tout le propos ici
29:17sur l'adolescence
29:18et pourquoi ?
29:19Est-ce que c'est physique ?
29:20Oui,
29:21parce qu'on sait
29:21que justement,
29:22la période d'adolescence
29:23est une période vulnérable.
29:24C'est une période aussi
29:25où il y a beaucoup plus
29:26de maladies psychiques
29:26qui vont apparaître
29:27et ce,
29:28sur un vaisseau assez large
29:29parce que ça va
29:30de 8 à 25 ans
29:31où il y a des maladies
29:32psychologiques,
29:34psychiatriques
29:34qui peuvent apparaître
29:35et qui les rendent
29:36encore plus vulnérables
29:37et le cerveau d'un enfant
29:38est en construction.
29:39Alors la chose positive
29:40pour le tout petit,
29:41c'est qu'il y a
29:41une plasticité cérébrale,
29:46modelée dans le bon sens
29:47mais si on passe
29:48des heures,
29:48des jours,
29:48des semaines,
29:49des mois,
29:50comme c'est le cas
29:50pour beaucoup d'enfants,
29:52ça pose évidemment problème
29:53et il y a des choses
29:54qui vont être compliquées
29:55pour revenir en arrière
29:57s'ils ont passé trop de temps.
29:59J'insiste encore
29:59sur les adultes
30:00qui eux-mêmes
30:01ne connaissent pas
30:02ce qu'on enseigne
30:04par exemple
30:04auprès des adolescents.
30:06Ils ne savent pas
30:06quand je leur parle
30:07dans des conférences
30:08de captologie,
30:09ils ne sont pas au courant.
30:10On a vraiment donné
30:11un modèle
30:12sans donner le risque
30:13comme on l'a fait
30:13au bout d'un certain temps
30:14pour l'alcool,
30:15pour le tabac.
30:16On ne l'a pas encore
30:17fait suffisamment
30:17pour le numérique.
30:18On dit qu'on éduque,
30:19qu'on informe
30:19mais ce n'est pas encore
30:20assez fort,
30:21assez clair
30:22parce que justement
30:23je pense que les GAFAM
30:24et autres font en sorte
30:25que le bruit ne soit pas
30:26trop fort sur ce sujet
30:27quand même.
30:28Justement,
30:28vous avez dans votre cabinet
30:29dans le secret médical
30:31j'imagine
30:32mais le désarroi
30:33vous voyez le désarroi
30:34de ces parents
30:35qui découvrent
30:36du jour au lendemain
30:37qu'ils n'ont absolument
30:38pas pris les bonnes décisions.
30:40Comment vous gérez ça
30:41parce que c'est
30:41extrêmement sensible en fait ?
30:43Alors moi j'ai un profil
30:44un peu particulier
30:45parce que comme je suis
30:46enfant de 0 à 16 ans
30:47a priori j'ai vu
30:48les enfants assez tôt
30:48et les parents assez tôt
30:49et moi je commence
30:50à 15 jours de vie
30:51la première sensibilisation
30:53à la problématique
30:54des écrans
30:54en disant que l'adulte
30:55doit être disponible
30:56donc ne pas utiliser
30:57son smartphone
30:58en présence de son bébé
30:59ne pas allumer
30:59la télévision en arrière-plan
31:01parce que ça perturbe
31:02aussi le développement
31:03du bébé.
31:04Et vous le faites de façon
31:04individuelle en fait ?
31:05Tout à fait
31:06et j'apprends à mes externes
31:07mes internes à l'hôpital
31:08ceux-là
31:08parce que ça je pense
31:09que c'est un point important
31:10qu'il faut pointer
31:10c'est qu'on est très très en retard
31:12dans tous les domaines
31:13et aussi dans le milieu médical
31:15les gens de terrain
31:16qui sont auprès des enfants
31:17dans les PMI
31:18les puricultrices
31:18tout ça
31:19se rendent compte
31:19de la problématique
31:20mais les médecins
31:21je parle en tant que médecin
31:23n'ont pas encore pris
31:24pour beaucoup conscience
31:25il y en a certains
31:26c'est le cas
31:27et donc du coup
31:27les messages donnés
31:28très précocement
31:29qui devraient être donnés
31:30très précocement
31:30ne sont pas faits
31:32c'est écrit dans le carnet de santé
31:33maintenant dès l'âge de 3 mois
31:34par exemple
31:34qu'il ne faut pas utiliser les écrans
31:36c'est une avancée
31:36Comment vous expliquez
31:37que les médecins
31:37soient un peu en retard
31:38sur cette question là
31:39sachant que ça touche
31:40à la concentration
31:41au sommeil
31:42à l'anxiété
31:43ça paraît presque étonnant
31:44Alors dans notre livre
31:45justement
31:46l'enfant écran
31:47on essaie d'expliquer
31:47un peu tout ce qui est
31:48en train de se passer
31:49notre médecine
31:50ne va pas très bien
31:50vous le savez
31:51il y a de moins en moins
31:52de médecins
31:53il y a peu d'enfants
31:54qui sont suivis
31:55par des spécialistes
31:55de l'enfance
31:56et que 15% des enfants
31:57en France
31:58on ne le sait pas toujours
31:58sont suivis par un pédiatre
31:59donc d'accord
32:00les médecins généralistes
32:01sont totalement débordés
32:02ne sont pas formés
32:03dans la formation
32:04il n'y a aucune prise de conscience
32:06sur l'impact de l'écran
32:07pourquoi ?
32:08parce qu'il y a aussi
32:09alors là je vais dire
32:11que je suis sans conflit d'intérêt
32:12je ne l'ai pas déclaré
32:13au départ
32:14des messages
32:15qui ne sont pas assez clairs
32:16parce qu'il y a des conflits
32:17d'intérêt dans le numérique
32:18très clairement
32:19pour avoir des messages
32:20très clairs dans notre société
32:21pour dire
32:22il y a un problème
32:23sur les écrans
32:24il y a une chose
32:25que je voudrais dire importante
32:26qui a un lien
32:27c'est que tout le monde
32:28est d'accord
32:29même ceux qui sont
32:29totalement fascinés
32:30parce qu'il y a cette histoire
32:31de fascination
32:32pour les médecins aussi
32:33sur les écrans
32:33de l'impact sur le sommeil
32:35du tout petit
32:36jusqu'au plus grand
32:37et on sait tous
32:38quand on fait de la médecine
32:39mais même de façon générale
32:41on le sait
32:41qu'il y a un impact
32:42sur l'humeur
32:43la concentration
32:44sur la mémorisation
32:45sur les fonctions exécutives
32:46et ça c'est dit
32:48dans la bibliographie internationale
32:50depuis longtemps
32:51et ça ne fait qu'augmenter
32:52donc on devrait tous
32:53être d'accord
32:54puisque si on touche
32:55le sommeil
32:56de l'enfant
32:57de l'adolescent
32:58de l'adulte
32:59on a un impact
32:59sur tout ce que je viens de dire
33:00donc même sur les résultats scolaires
33:02sur les capacités de concentration
33:04sur l'attention
33:05on parle beaucoup
33:05de troubles de l'attention
33:06et ainsi de suite
33:07tout ça fait que
33:08le numérique
33:09est bien responsable
33:10de certaines choses
33:11et dont on n'a pas encore
33:11pris conscience
33:12dont les médecins
33:13donc je pense
33:14qu'il faut faire
33:15des fois un gros coup de poing
33:16sur la table
33:17et que l'éducation
33:17ne suffira pas
33:18pour pouvoir passer ces messages
33:20comme ça a été le cas
33:21avec l'alcool
33:21avec le tabac par exemple
33:22il y a peut-être un peu aussi
33:24cette illusion
33:24pour une génération
33:25une génération peut-être
33:26un peu plus âgée que la mienne
33:27qu'ils ont grandi
33:29avec la télévision
33:30leurs enfants ont grandi
33:30avec la télévision
33:31et que bon
33:32ça n'a pas été dramatique
33:34parce que j'ai beaucoup
33:35de grands-mères par exemple
33:35qui viennent et qui me disent
33:36ma fille elle a été élevée
33:37avec les écrans
33:38avec la télé allumée
33:39vous voyez elle va très bien
33:41ma petite fille
33:42vous dites que c'est un problème
33:43ben oui mais les gens
33:44n'ont pas compris
33:44ce n'est plus la même chose
33:46qu'on regarde
33:46il y a la notion de permanence
33:4824h sur 24
33:49d'objet nomade
33:50qui fait que maintenant
33:51c'est dans les toilettes
33:52ou c'est dans la salle de bain
33:53ou dans la chambre
33:54les parents sont persuadés
33:55que si leur enfant
33:55est dans leur chambre
33:56il est en sécurité
33:57mais non
33:58il surfe sur internet
33:59et il n'est pas en sécurité
34:00parce que c'est permanent
34:0124h sur 24
34:02c'est plus du tout
34:03les mêmes contenus
34:04et la même temporalité
34:06qu'on avait il y a 20 ans
34:07donc là aussi
34:08je redis bien aux grands-mères
34:09et aux mamans
34:10qu'on n'est plus du tout
34:11dans le même monde
34:12depuis 10 ans maintenant
34:13Marie, quel risque
34:15en fait de ces inégalités
34:16dont on parlait tout à l'heure
34:17qui sont des inégalités
34:18numériques à la base
34:19qui deviennent éducatives
34:20en fait
34:21et quel risque aujourd'hui
34:22pour la société
34:23qu'est-ce que vous apercevez vous ?
34:25à vrai dire
34:26je pense que le risque
34:26il est protéiforme
34:29et en fait
34:30on le retrouve
34:31dans la plupart
34:32des débats de société
34:33qu'on a actuellement
34:33si vous voyez
34:34les cas de passage à l'acte
34:37en termes d'agression
34:39et de meurtre
34:39des derniers faits divers
34:40qu'on a pu avoir
34:41sur un jeune
34:43qui a agressé
34:43une surveillante
34:44à Nantes
34:45sur des passages à l'acte
34:47de radicalisés
34:49religieux
34:52qu'en fait
34:53quand vous suivez
34:53les enquêtes
34:54vous voyez que vous avez
34:54très souvent
34:55en fait
34:55des personnes
34:58qui se sont
34:59engrainées
35:00toutes seules
35:01sur internet
35:01vous avez
35:03les cas
35:03d'agression sexuelle
35:05si vous prenez
35:06l'affaire
35:06de Gisèle Pellicot
35:09vous vous rendez compte
35:10que la place
35:10du logiciel
35:11de mise en lien
35:12du réseau
35:14de violeurs
35:15est en fait
35:16centrale
35:16dans le dispositif
35:17et en fait
35:18moi mon sentiment
35:20là récemment
35:20j'étais interviewé
35:21sur le cas
35:22d'un homme
35:22qui est mort en direct
35:23sur une scène Twitch
35:24pour des gens
35:26qui faisaient du profit
35:27sur le nombre
35:28de claques
35:29et de victimisations
35:30qu'ils infligeaient
35:30à la personne
35:32généralement
35:35il y a quand même
35:35une espèce
35:35à mon avis
35:36de dérive
35:38qui est à l'oeuvre
35:39avec un temps
35:40d'écran
35:41qui explose
35:42et une perte
35:43de rapport au réel
35:44un processus
35:46comme ça
35:47où les éléments
35:48les normes sociales
35:48les éléments
35:49qui nous lient
35:51qui font société
35:52sont un petit peu
35:52détricotés
35:53par ces algorithmes
35:56par ces temps d'écran
35:56et quand même
35:58en arrière-plan
35:58des entreprises
35:59alors je ne dis pas
36:01qu'elles font ça
36:01à dessein
36:02mais comme l'a très bien
36:03expliqué
36:03Katia Roux
36:04elles sont simplement
36:05dans une quête
36:05de profit
36:06et ce qui génère
36:07du profit
36:08c'est les contenus
36:10saillants
36:11clashants
36:12les contenus
36:14soit sexualisants
36:16soit conflictuels
36:17et donc
36:18ça plus
36:20l'isolement
36:21lié à notre société
36:22moderne
36:23et tout ce qui
36:24s'ensuit
36:25entraîne comme ça
36:26je trouve
36:28une sorte
36:28d'aggravation
36:30de la dislocation
36:32du lien social
36:32et des tensions
36:35en fait
36:35qu'on retrouve
36:37au niveau politique
36:37qu'on retrouve
36:38dans le débat public
36:39un débat public
36:40qui n'a plus lieu
36:42dans les cafés
36:44ou à l'assemblée
36:44qui a lieu
36:45sur TikTok
36:46sur X
36:47qui sont encore une fois
36:48des plateformes
36:49détenues par des gens
36:50avec des agendas politiques
36:51pour le coup
36:51quand on parle
36:52de X
36:52ou de TikTok
36:53on sait que les gens
36:55qui dirigent
36:55ces entreprises
36:56ont des agendas politiques
36:57qui ne sont pas
36:58dans le sens
36:59de l'intérêt général
36:59en tout cas
37:00pour la France
37:00et donc
37:02voilà
37:03à mon sens
37:04on a un enjeu
37:05très très fort
37:05en fait
37:05de préservation
37:07du lien social
37:08et de
37:10de bâtir
37:11notre société
37:11et puis peut-être
37:12qu'il faudrait aussi
37:13parler un tout petit peu
37:14des dernières actualités
37:15sur l'intelligence artificielle
37:16qui est
37:17une nouvelle couche
37:18de problèmes
37:18et une nouvelle aggravation
37:19du sujet
37:20et je pense qu'on est
37:22très très loin
37:23du niveau de réaction
37:24nécessaire du point de vue
37:25des pouvoirs publics
37:27face à tous les constats
37:28dramatiques
37:29qu'on est en train
37:29de dresser
37:29il y a un besoin urgent
37:31de prise de conscience
37:33et d'action
37:34au-delà des discours
37:35de la part de la puissance publique
37:37mais c'est un projet
37:38de société
37:39alors on n'a pas tous
37:40signé au départ
37:41mais c'est quand même
37:41notre projet de société
37:42aujourd'hui
37:43comment on fait pour lutter
37:44comment on fait pour
37:44rétropédaler
37:45ça paraît presque
37:46vous le faites
37:47chacun ici le fait
37:48un petit peu à sa façon
37:49mais est-ce que ça fait
37:51même sens aujourd'hui
37:51quand on voit
37:52à quel point ça va vite
37:53et que ça nous dépasse
37:54mais justement
37:55il y a peut-être aussi
37:56quelque chose à déconstruire
37:57aujourd'hui au niveau
37:58de certaines représentations
37:59et ça a aussi été dit
38:00en creux sur plusieurs interventions
38:01c'est-à-dire qu'aujourd'hui
38:02il y a cette idée
38:02que l'innovation
38:04est nécessairement positive
38:06et qu'il faut la poursuivre
38:07à tout prix coûte que coûte
38:08et on l'oppose
38:09et on l'oppose aussi
38:10dans le discours public
38:11y compris parfois
38:13dans la bouche
38:13de certains régulateurs
38:14à la régulation
38:15et ça là
38:16forcément on marche sur la tête
38:18parce qu'opposer
38:19l'innovation
38:20à la régulation
38:20c'est finalement
38:21ouvrir la porte
38:22à toutes les dérives
38:23à tous les abus aussi
38:24qu'on est en train de décrire
38:24c'est-à-dire qu'il pourrait y avoir
38:26effectivement
38:27des développements positifs
38:28à un moment donné
38:29de l'IA
38:29mais si en fait
38:30on ne se pose pas
38:31les questions en amont
38:32avant au moment même
38:33de la conception
38:33avant le déploiement
38:34et l'utilisation
38:35des risques potentiels
38:36pour les droits humains
38:37ou pour la société
38:38finalement
38:39on passe complètement
38:40à côté du problème
38:41à chaque fois
38:42qu'on parle
38:42du numérique
38:44de l'intelligence artificielle
38:46de ces systèmes-là
38:46et qu'on associe des risques
38:48on s'imagine
38:49un futur dystopique
38:50forcément lointain
38:51etc.
38:52en fait les risques
38:52ils sont ici et maintenant
38:53et ils sont déjà constatés
38:54depuis un certain temps
38:55par des experts
38:56par des professionnels
38:57qui constatent en fait
38:58les dégâts tous les jours
38:59et qui effectivement
39:01accroissent les inégalités
39:03augmentent les discriminations
39:05enferment des jeunes
39:07dans des bulles
39:08isolent
39:10fractures
39:11montent les uns
39:12contre les autres
39:12certains groupes
39:13certaines communautés
39:15à des fins
39:15soit effectivement lucratives
39:17soit électorales
39:18ou autres
39:18ça on le constate
39:19tous les jours
39:20et aujourd'hui
39:20on a du recul dessus
39:21et on a aussi
39:22des recommandations
39:23et on sait très bien
39:23comment ça pourrait être
39:24finalement encadré
39:25il y a un règlement européen
39:27aujourd'hui
39:27qui vise précisément
39:29à encadrer les plateformes
39:30qui a été adopté
39:31en 2022
39:32c'est le Digital Services Act
39:33qui est mis en oeuvre
39:35depuis 2023
39:36pour les très grandes
39:37plateformes du numérique
39:38donc les entreprises
39:38des réseaux sociaux
39:39en particulier
39:40et pour toutes les autres
39:41entreprises depuis début 2024
39:43aujourd'hui
39:44on est très très loin
39:45de l'application
39:46ambitieuse et ferme
39:47de ce texte
39:47aujourd'hui
39:48on a par exemple
39:49TikTok
39:50qui annonce
39:51des mesures
39:51d'atténuation
39:53en termes de
39:53méditation
39:54mission de bien-être
39:56sur sa plateforme
39:57alors qu'en fait
39:58ce texte
39:59l'oblige à identifier
40:00les risques systémiques
40:01c'est-à-dire
40:02liés à la conception
40:03même de sa plateforme
40:04à mettre en face
40:04des mesures d'atténuation
40:05de ces risques
40:06et effectivement
40:07ce sont des choix
40:09ce sont des choix
40:10de conception
40:10quand on parle d'addiction
40:11et qu'on parlait
40:12effectivement
40:13soit du système
40:13de recommandation
40:14algorithmique
40:14de la lecture automatique
40:16de ces objets nomades
40:17qui sont partout
40:18l'ultra personnalisation
40:20et je rejoins
40:20c'est aussi
40:21ce qui nous différencie
40:22de la télévision
40:22ou autre
40:23c'est-à-dire qu'aujourd'hui
40:23les contenus
40:24qu'on va trouver
40:25ils sont personnalisés
40:26ils sont calibrés
40:26pour chaque profil
40:27pour chaque personne
40:28pour faire du profit
40:29et ça effectivement
40:30c'est très différent
40:32de ce qui se passait
40:32et bien tout ça
40:33on pourrait lutter
40:33contre ça
40:34on pourrait mettre en place
40:35des mesures
40:35qui ne soient pas
40:36par défaut
40:37fondées sur le profilage
40:39en ligne par exemple
40:40on pourrait penser
40:41des plateformes
40:42qui soient basées
40:42sur le choix libre
40:43éclairé préalable
40:44des utilisateurs
40:45il y a beaucoup de mesures
40:46qui feraient
40:47qu'on pourrait changer
40:48le modèle de développement
40:49économique
40:49de ces plateformes
40:50et aujourd'hui
40:51on n'y est pas
40:51on n'y est pas
40:51parce qu'en fait
40:52c'est le business model
40:53c'est la publicité ciblée
40:55c'est l'économie
40:55de l'attention
40:56et c'est le profit
40:58coûte que coûte
40:59aujourd'hui
41:00tout ça pourrait changer
41:01et je suis d'accord
41:01c'est une volonté politique
41:03d'imposer ces cadres-là
41:04parce que les entreprises
41:05ne s'autorégulent pas
41:06sinon ça se saurait
41:07et une fois que ces cadres
41:09sont adoptés
41:10de pouvoir les mettre en place
41:11et assurer de leur mise en oeuvre
41:12effective ambitieuse
41:13et ça encore une fois
41:14on n'y est pas
41:15ce n'est pas lié qu'au Covid
41:17je rebondis
41:18parce qu'on dit souvent
41:18que c'est le Covid
41:19qui a déclenché tout ça
41:20bien avant le Covid
41:21déjà
41:222010-2012
41:23on s'inquiétait
41:24et ensuite 2015
41:25donc c'est un point important
41:27parce que c'est souvent pointé
41:28c'est le Covid
41:29c'est normal
41:29on est en train de se remettre
41:30de tout ça
41:31tout à fait
41:31ça n'est pas vrai
41:32vous évoquiez dans votre rapport
41:34le droit
41:35l'idée de défendre
41:37le droit à la liberté de penser
41:38comme un droit absolu
41:40Yves-Marie
41:42quel risque
41:42pour la liberté de penser
41:43et notre façon de penser
41:45justement
41:45quand on est entouré
41:46et happé
41:47par ces outils
41:48aujourd'hui
41:49un risque
41:50très grand
41:52il y a une forme
41:53il y a des stratégies
41:55d'influence
41:55de la part d'acteurs puissants
41:57qui s'opèrent
41:58sur les esprits
41:59et c'est ça aussi
42:01quand on parlait
42:02des inégalités
42:03en fait
42:03on voit bien aujourd'hui
42:04que plus on est riche
42:06plus on développe
42:07des capacités d'influence
42:08on voit aujourd'hui
42:10les candidats
42:10dans les élections
42:11dans beaucoup de pays
42:12il suffit de prendre
42:13la première puissance
42:13mondiale
42:14les Etats-Unis
42:15c'est la richesse
42:16qui permet
42:17l'influence en ligne
42:18et qui permet
42:19derrière
42:20de cibler
42:20ces publicités
42:24et donc
42:24d'obtenir des voix
42:25et on voit
42:27la puissance
42:27d'un Elon Musk
42:28aussi
42:29qui a acheté
42:30un réseau social
42:30pour avoir
42:31de l'influence
42:32dans le débat public
42:32et sur l'opinion
42:33donc il y a une énorme
42:35menace en fait
42:36sur nos esprits
42:36sur notre liberté de penser
42:37et donc encore une fois
42:39à l'échelle individuelle
42:40il faut faire l'effort
42:42le plus possible
42:42de se libérer
42:43moi ce que je recommande
42:44systématiquement
42:45c'est d'arrêter le smartphone
42:46ça paraît un peu fou
42:48à plein de gens
42:48mais on est certain
42:49un certain nombre
42:50à y arriver
42:50donc c'est encore possible
42:52et plus on sera nombreux
42:53à arrêter le smartphone
42:53plus on mettra à mal
42:55notre dépendance collective
42:58vous-même vous avez arrêté
42:59le smartphone
42:59moi j'ai arrêté le smartphone
43:00vous pouvez nous expliquer
43:01simplement un retour
43:02sur l'expérience
43:03comment ça s'est passé
43:04pour vous
43:04c'est intéressant
43:05ouais
43:05bon à force de réfléchir
43:06à ces questions
43:07j'ai compris que
43:07c'est sans doute
43:08la meilleure solution
43:09c'est à dire que
43:11voilà donc
43:12j'ai été par étapes
43:13donc mon vieux smartphone
43:14je l'ai gardé chez moi
43:15au départ uniquement
43:16pour WhatsApp
43:17qui était le plus difficile
43:18à arrêter
43:19et j'ai acheté
43:20un petit téléphone
43:20pour le quotidien
43:21et puis au bout d'un moment
43:22au bout d'un an et demi
43:23je crois
43:24l'application d'elle-même
43:25s'est arrêté de fonctionner
43:26et voilà
43:28aujourd'hui
43:28je n'ai que mon petit téléphone
43:30qui permet de téléphoner
43:32déjà
43:32d'avoir des textos
43:33enfin qui est déjà
43:34en fait
43:34je trouve assez envahissant
43:35on va dire
43:35mais voilà
43:38et ça permet de fonctionner
43:40parce que j'ai quand même
43:40internet
43:40donc j'ai quand même
43:41je communique par mail
43:43je communique
43:43je peux quand même
43:45accéder à des cartes
43:46interactives
43:46si j'en ai besoin
43:47enfin je
43:48en fait
43:48on a vécu comme ça
43:49pendant longtemps
43:50et on s'en sort très bien
43:52quoi
43:52et donc
43:54donc ça c'est
43:56ça c'est la déconnexion individuelle
43:57mais moi je suis convaincu
43:58qu'à l'échelle collective
43:59il y a vraiment un enjeu
44:01pour la puissance publique
44:02d'agir
44:02et ça c'est un point
44:03sur lequel je voudrais
44:04que je voudrais souligner
44:05c'est que
44:05si on attend l'Union Européenne
44:07à mon avis
44:08on risque d'attendre longtemps
44:09moi j'ai travaillé
44:10au Parlement Européen
44:11dans le passé
44:12je sais un petit peu
44:13comment ça se passe
44:14les rapports de force
44:15avec les lobbies industriels
44:16sont très compliqués
44:17si on attend
44:18le gouvernement français
44:19on peut espérer
44:20mais j'ai peur
44:21qu'on attend longtemps aussi
44:22mais espérons
44:23il faut continuer
44:24et il faut continuer de pousser
44:25en revanche
44:26les acteurs locaux
44:26peuvent agir beaucoup
44:27nous on a rédigé une charte
44:29qui s'appelle
44:30plus d'humains moins d'écran
44:31à l'attention des candidats
44:32aux élections municipales
44:33ça tombe bien
44:34en mars prochain
44:35il y a les élections municipales
44:36en France
44:37et en fait
44:37les communes
44:38les mairies
44:38les communautés d'agglomération
44:39elles ont le pouvoir
44:41d'agir
44:41de financer de la prévention
44:43et de la prévention indépendante
44:45de l'industrie numérique
44:46c'est très important
44:47de le préciser
44:48et elles ont aussi
44:49le pouvoir
44:49de former leurs équipes
44:51elles ont le pouvoir
44:52de refuser
44:53l'entrée des tablettes
44:54en maternelle
44:55à l'école primaire
44:56elles peuvent faire
44:57des campagnes d'affichage
44:59elles peuvent proposer
45:01un service public
45:01qui soit plus humain
45:03qui soit pas systématiquement
45:04en ligne aussi
45:05ce qui peut engendrer
45:07aggraver la dépendance
45:08donc les acteurs locaux
45:10en fait
45:10peuvent faire beaucoup
45:11et puis bien sûr
45:12la France pourrait agir
45:13et puis l'Union Européenne
45:14pourrait faire
45:14évidemment beaucoup plus
45:15donc
45:16mais dire qu'en gros
45:17à tous les niveaux
45:18il y a la possibilité
45:18d'agir une fois
45:19qu'on a réalisé
45:20l'ampleur du problème
45:21et l'urgence
45:22à agir
45:23alors à votre niveau
45:25je sais que vous proposez
45:26des ordonnances
45:27sur ces questions là
45:28et c'est peut-être intéressant
45:28d'en dire un mot
45:29une maman qui arrive
45:30et qui se rend compte
45:31que son enfant
45:31a des vrais retards
45:32de langage
45:33justement dû aux écrans
45:35qu'est-ce que vous lui conseillez ?
45:37Alors je vais rajouter
45:37une petite couche quand même
45:38à tout ce qu'on vient de dire
45:39sur la santé physique
45:40dont on n'a pas beaucoup parlé
45:41et qui me semble essentiel
45:42et qui a un lien
45:43évidemment aussi avec l'enfant
45:44parce qu'on va mal
45:45psychologiquement
45:46la perte d'empathie
45:47enfin tout ce qu'on a pu dire
45:48beaucoup beaucoup de choses
45:49mais les enfants
45:50sont des enfants d'intérieur
45:51maintenant
45:52et c'est ce qu'on est
45:52en train de créer
45:53avant ils étaient dehors
45:54ils jouaient
45:54ils bougeaient
45:55et ils prenaient le risque
45:56d'aller acheter le pain
45:57ou des choses comme ça
45:58qui paraissent un peu folles
45:59quelque part
46:00puisque maintenant
46:00c'est plus du tout
46:01ce qui se passe
46:02et sérieusement
46:02on est très inquiets
46:03enfin moi en tant que médecin
46:04je suis très inquiète
46:05parce que l'obésité augmente
46:06le diabète
46:07l'hypertension artérielle
46:07même du petit enfant
46:09de l'enfant
46:10et puis la sédentarité
46:11par définition
46:13quand vous utilisez un écran
46:14vous ne bougez pas
46:15et ça c'est un impact
46:16sur la santé important
46:17même les cardiologues
46:19sont inquiets
46:19parce que les capacités
46:21d'adaptation à l'effort
46:22sont en train de diminuer
46:23donc nos futurs Jeux Olympiques
46:25voilà
46:25enfin je vais un peu loin
46:26pour la dérision
46:27mais vraiment
46:28ça pose un sérieux problème
46:29et pour finir
46:30sur le plan de la santé
46:30parce qu'on n'en parle pas assez
46:31l'effet sur la vision
46:33va nous claquer à la figure
46:35si je puis dire
46:36parce que déjà en Asie
46:37il y a une épidémie majeure
46:38de myopie
46:39qui est une vraie maladie
46:40et il n'y a pas que ça
46:41qu'on va pouvoir constater
46:42à l'avenir
46:43alors oui
46:43pour informer au mieux
46:44les parents
46:45et j'aimerais tellement
46:46que tous mes collègues
46:47médecins généralistes
46:48et pédiatres
46:48fassent la même chose
46:49dès les premières consultations
46:51je fais une ordonnance
46:52à la même hauteur
46:52que la vitamine D
46:54ou un traitement
46:54pour dire combien c'est important
46:56puisque la vie des gens
46:56a changé
46:57donc le numérique
46:58doit être pris en compte
46:59dès la naissance
47:00je dis aux parents
47:02selon les âges
47:03et utiliser comme ceci
47:04ou comme cela
47:04ça ne veut pas dire
47:05que je suis anti-écran
47:06bien évidemment
47:07au contraire
47:08on vit dans notre monde
47:09mais il faut savoir
47:10bien l'utiliser
47:11c'est ce qu'on dit
47:11depuis le début
47:12donc si un parent
47:13a un bébé
47:14et bien son téléphone
47:15il s'en servira
47:16quand le bébé dormira
47:17parce qu'il doit être disponible
47:18pour son enfant
47:18et c'est comme ça
47:19qu'il va bien se construire
47:20et plus grand
47:21il va avoir peut-être envoyé
47:23de montrer un dessin animé
47:24ou ainsi de suite
47:25et donc on va lui expliquer
47:26comment l'enfant apprend à parler
47:27et comment il apprendra
47:28bien mieux avec l'humain
47:29qu'avec le téléphone
47:30et ça c'est écrit noir sur blanc
47:31sur l'ordonnance
47:32je dis parce que
47:33ça peut être une chose pratique
47:34qui est importante
47:35pour les parents
47:35la visio avec la famille
47:37il n'y a pas
47:38les fameux algorithmes
47:39dont on parle depuis tout à l'heure
47:40l'enfant a deux ans
47:41il se lasse
47:42au bout de cinq minutes
47:42la grand-mère
47:43il en a marre
47:44et il passe à autre chose
47:45pareil pour les photos de famille
47:46les films de famille
47:47donc en soi
47:47l'écran
47:48ne va pas poser problème
47:50parce que le contenu
47:51n'est pas addictif
47:52n'est pas fait
47:53avec une notion financière
47:55sous-jacente
47:56quel que soit l'âge de l'enfant
47:57et après
47:58quand les enfants
47:59sont malheureusement
47:59surexposés
48:00de façon très importante
48:01j'ai une ordonnance
48:03qu'on peut retrouver
48:04sur notre site
48:04du collectif
48:05sur exposition écran
48:06où on reprend
48:07en fait
48:08tout ce qu'il faut
48:09essayer de faire
48:10la première raison
48:11pour laquelle
48:11les parents se font avoir
48:12c'est pour calmer l'enfant
48:13il donne l'écran
48:14et c'est merveilleux
48:15ça marche super bien
48:16une sorte de régulateur émotionnel
48:17mais qui marche super bien
48:18c'est on off
48:19c'est impressionnant
48:20comme un bébé
48:21et on le sait
48:22est attiré par tout ce qui bouge
48:23et qui est lumineux
48:24donc vous lui donnez
48:25il est sidéré d'informations
48:26il ne bouge plus
48:27même le regard est comme ça
48:28il ne traite pas l'information
48:29c'est ce que vous dites par ailleurs
48:30non il ne sait pas
48:31il est sidéré
48:31et donc il s'arrête de pleurer
48:33parce qu'il est complètement pris
48:34et puis après
48:35on va utiliser ça aussi
48:36pour manger
48:37un enfant un peu opposant
48:38à 18 mois
48:39c'est classique
48:39beaucoup de parents l'ont connu
48:40on va donner l'écran
48:42et il va ouvrir la bouche
48:43parce qu'il est sidéré
48:44pris par ses
48:45il faut le savoir aussi
48:46on ne l'a pas dit
48:47les images sont calculées
48:49pour sidérer l'enfant
48:50les sons sont aussi particuliers
48:52pour que vraiment
48:53il ait tellement d'informations
48:54qu'il ne puisse plus
48:55ne rien faire d'autre
48:56que de regarder l'écran
48:57c'est diabolique quand même
48:58vraiment
48:58donc du coup
49:00le temps d'écran va augmenter
49:01c'est comme ça
49:02qu'on se retrouve
49:03à des temps d'écran importants
49:04et un enfant
49:04qui va avoir ce temps volé
49:05à tout ce qu'il doit apprendre
49:06et donc ça
49:07ça prend du temps
49:08à expliquer aux parents
49:09parce que moi je leur parle
49:10de captologie
49:11de technoférence
49:12de temps volé
49:12et tout ça c'est sur l'ordonnance
49:14à la fois en prévention
49:15et puis quand on est arrivé
49:16dans un excès
49:17pour que tout le monde
49:18soit informé
49:18parce que c'est une histoire
49:19où toute la famille
49:20doit s'y mettre
49:20l'adolescent
49:22le frère adolescent
49:23la grand-mère
49:24la babysitter
49:24tout le monde
49:25parce que c'est compliqué
49:26et ce qui donne un peu d'espoir
49:27c'est que le sevrage
49:29vous dites
49:29est plutôt efficace
49:30oui
49:31oui vraiment
49:32c'est essentiel
49:34d'abord c'est jamais trop tard
49:35même l'adolescent
49:36le pauvre adolescent
49:37qui est enfermé
49:38dans sa bulle
49:40de tiktok
49:41ou autre
49:41on peut gagner
49:42sur le sommeil
49:43ne mettez pas d'écran
49:44dans la chambre
49:45des adolescents
49:46des enfants
49:46des petits enfants
49:47et vous adultes
49:49parents
49:49essayez d'être exemplaires
49:50parce que l'enfant
49:52il fait ce que fait son parent
49:53et non pas seulement
49:54ce qu'il dit
49:55donc idéalement
49:56il faudrait qu'il n'y ait
49:56aucun écran dans les chambres
49:58donc là les parents me disent
49:58mais c'est pas possible
50:00bah si c'est possible
50:01et on achète un petit réveil
50:02et on y arrive très bien
50:03parce que si on préserve
50:04le sommeil des enfants
50:05des adolescents
50:07déjà on pourra se parler
50:07on sera de meilleure humeur
50:09et on n'aura pas été exposé
50:10à des contenus inadaptés
50:12parce qu'on parle beaucoup
50:13des réseaux sociaux
50:14certes c'est un vrai problème
50:15mais il n'y a pas que ça
50:16on va parler de la pornographie
50:18les enfants se retrouvent
50:19devant des images
50:20qui ne sont pas forcément
50:21liées aux réseaux sociaux
50:22et qui sont totalement
50:23évidemment inadaptées
50:24donc préservons le sommeil
50:25quel que soit l'âge
50:26les adultes compris
50:27puis après il y a des règles
50:29qu'on aime bien nous
50:30à cause
50:30dont on parle
50:31qui sont la règle des 4 pas
50:32avec pas d'écran le matin
50:33pour la concentration
50:34pas pendant les repas
50:35je rappelle qu'on mange
50:36plusieurs fois par jour
50:37donc ça fait du temps
50:38sans écran normalement
50:39et pas la télévision
50:40allumée derrière aussi
50:41non non il la regarde pas docteur
50:43je vous promets
50:43bah si il la regarde
50:44et l'adulte n'est pas disponible
50:46de la même façon
50:46c'est ce qu'on appelle
50:47l'effet de la télévision
50:48en arrière-plan
50:49et puis avant de dormir
50:50idéalement
50:51on lit des histoires
50:52on regarde des livres
50:53c'est beaucoup mieux
50:53est-ce que vous croyez
50:55quand même
50:55un usage raisonné
50:57justement du numérique
50:59parce que là
50:59on a l'impression
51:00on est quand même
51:00sur l'écran diabolique
51:02est-ce qu'on peut terminer
51:03peut-être sur cette notion-là
51:04parce que c'est le monde
51:05dans lequel on est aujourd'hui
51:06et qu'est-ce que vous pouvez
51:07peut-être nous dire là-dessus
51:08mais moi je pense
51:08qu'on peut très bien vivre
51:09avec le numérique
51:09sauf qu'il faut être honnête
51:10avec les gens
51:11il faut effectivement
51:12que notre société
51:13les politiciens
51:14et autres
51:14tout ce qu'on a dit
51:15que le DSA soit mis en place
51:17parce que tant que ça
51:18ne s'est pas fait
51:18on ne protège pas
51:19et quand vous donnez
51:21à une personne de l'alcool
51:22il va continuer à en boire
51:23s'il est addict à ça
51:24c'est exactement pareil
51:25pour le numérique
51:26mais si on fait un arrêt
51:27pour ceux qui ont trop regardé
51:29et qu'on explique
51:30et en prévention
51:31dès la maternité
51:32idéalement en fait
51:34il faudrait faire de la prévention
51:35dès la grossesse
51:36parce que toute maman
51:37tout papa
51:38a envie de faire le mieux
51:39possible pour son enfant
51:40donc s'il a ses informations
51:41de captologie
51:42déjà il y a une petite graine
51:43qui s'est plantée
51:44et donc au fur et à mesure
51:45on va bien améliorer
51:47l'usage de l'écran
51:48et puis il faudrait
51:48que la formation
51:49de nos médecins
51:50de tous ceux
51:51qui sont autour de l'enfance
51:52et ce qu'on raconte
51:53dans notre livre
51:53l'enfant écran
51:54et bien soit informé
51:56parce qu'on en parle
51:57les gens là sont en train
51:58d'être informés
51:58mais il y a des tas
51:59de soignants aussi
52:00qui ne sont pas informés
52:01de cette problématique
52:02sur ce rapport sain
52:04au numérique
52:04vous avez coupé
52:05donc vous défendez
52:06un peu la déconnexion complète
52:07mais est-ce que quand même
52:08en termes de projet de société
52:09vous voyez quand même
52:11une issue ?
52:12Alors moi j'ai pas du tout
52:13complètement coupé
52:14puisque je passe quand même
52:15énormément de temps
52:15sur mon ordinateur
52:16pour le travail
52:17mais alors vous parlez
52:19d'écran diabolique
52:20je pense que c'est pas
52:21forcément le bon terme
52:21en revanche
52:22je pense que c'est peut-être
52:24une nuance que je peux avoir
52:25avec Sylvie Osica
52:28là-dessus
52:28ou avec d'autres
52:29c'est que moi je crois
52:30qu'effectivement
52:31la technologie numérique
52:32pose problème en elle-même
52:34c'est-à-dire que
52:35nous on se réfère beaucoup
52:37à un philosophe
52:37qui s'appelle Jacques Ellul
52:38qui a vraiment pensé
52:39la place de la technologie
52:41dans la société
52:41qui montre que la technologie
52:43n'est pas neutre
52:43elle est ambivalente
52:45c'est-à-dire qu'elle a
52:45à la fois des effets positifs
52:47et à la fois des effets négatifs
52:49et le problème
52:50c'est que
52:51comme elle est orientée
52:52vers l'efficacité
52:53vers la quête de profit
52:55de ceux qui la détiennent
52:56en fait
52:57tendanciellement
52:57et structurellement
52:58elle sera problématique
52:59donc internet
53:01les réseaux sociaux
53:02en fait
53:03tendanciellement
53:04structurellement
53:04ils poseront problème
53:05et donc
53:06vivre sereinement
53:08et apaisé
53:09avec internet
53:10et les réseaux sociaux
53:10à titre personnel
53:12je n'y crois pas
53:12et je pense que
53:14en fait
53:14notre but
53:15ça va être au contraire
53:15de réduire cette place
53:17et conquérir
53:19des espaces de liberté
53:20voilà
53:21regagner du temps extérieur
53:23regagner du temps de lecture
53:24regagner du temps familial
53:25regagner du rapport
53:27à la nature
53:28ralentir
53:29en fait voilà
53:30moi c'est
53:30à titre personnel
53:31c'est plutôt vers ça
53:32que je vois
53:33que je vois une issue
53:34Katia Roux là-dessus
53:34oui alors peut-être
53:36quelque chose
53:36un peu à mi-chemin
53:37pour la synthèse
53:40non mais
53:40mais c'est vrai que
53:41ce qui est à la fois
53:42terrible
53:43mais en même temps
53:44qui donne de l'espoir
53:45c'est que tout ça
53:46est issu de choix
53:47en réalité
53:48les plateformes
53:49elles fonctionnent
53:50par choix de conception
53:51et il pourrait en être
53:52autrement
53:52par définition
53:53si c'est un choix
53:53le choix pourrait être différent
53:55donc je suis d'accord
53:56qu'aujourd'hui
53:56la manière dont sont
53:57conçues ces plateformes
53:58ces réseaux
53:59et le fonctionnement
54:00des entreprises
54:01des réseaux sociaux
54:02ou du numérique
54:02en général
54:04est extrêmement problématique
54:05pour toutes les raisons
54:06qu'on a citées
54:07de l'économie de la torsion
54:08la captation des données
54:09etc
54:09aujourd'hui
54:10le fait aussi
54:11que ce sont souvent
54:12des systèmes
54:13qui sont biaisés
54:13dès leur conception
54:14qui ne sont pas neutres
54:15qui peuvent amplifier
54:16des discriminations
54:17etc
54:17aujourd'hui
54:18tels que ces systèmes
54:19sont conçus
54:20ils sont problématiques
54:21mais on pourrait tout à fait
54:22imaginer
54:23une autre manière
54:24de concevoir ces systèmes
54:25encore une fois
54:26pas fondée
54:27sur la captation
54:29des données
54:29sur la surveillance
54:30sur l'économie
54:31de l'attention
54:32etc
54:32on connaît en fait
54:34les modèles
54:35un petit peu alternatifs
54:36qui permettraient
54:37en l'occurrence
54:38de peut-être
54:39avoir accès
54:40à ce qu'il y a
54:41de bien
54:42aussi
54:42sur ces plateformes
54:44c'est-à-dire que nous
54:44on a pu documenter
54:45une organisation internationale
54:46donc il y a aussi
54:47énormément
54:47de mobilisation
54:49de défense
54:50des droits
54:51dans certains pays
54:52où il n'y avait pas
54:53du tout
54:53d'espace disponible
54:55pour revendiquer
54:55ces droits
54:56partager
54:56s'exprimer
54:57et les réseaux sociaux
54:58ont à certains égards
55:00permis aussi
55:00à certaines voix
55:01de s'élever
55:03donc pour nous
55:04l'idée
55:04ce n'est pas forcément
55:05de tout mettre
55:06enfin voilà
55:07tout fermer
55:08mais de repenser
55:09le modèle
55:10de ces plateformes-là
55:11d'obliger les entreprises
55:12et je suis d'accord
55:13c'est extrêmement long
55:14et on n'y est pas
55:15aujourd'hui
55:15mais on est obligé
55:17de redire
55:17qu'en premier lieu
55:18la responsabilité
55:18elle est sur les entreprises
55:19que c'est extrêmement important
55:21de pouvoir imbriquer
55:22tout ce qu'on a dit
55:23aussi
55:23des niveaux locaux
55:24nationaux
55:25régionaux
55:26internationaux
55:26la formation
55:27des différents secteurs
55:29et que tout ça
55:29en fait fonctionne ensemble
55:31fasse vraiment système
55:32pour contrecarrer
55:32un système
55:33qui aujourd'hui
55:34est effectivement
55:35préjudiciable
55:36mais qui pourrait être autrement
55:37et donc c'est aussi
55:38ce qu'on appelle
55:39un changement de ce modèle-là
55:40pour que finalement
55:41il soit protecteur
55:43des droits humains
55:44et qu'on arrive à garantir
55:45un espace en ligne
55:46qui soit sûr
55:46pour tous et toutes
55:47merci beaucoup
55:48merci à tous
55:50pour vos réflexions
55:51pour cet échange
55:52et on se retrouve très bientôt
55:53sur France 24
Be the first to comment
Add your comment

Recommended