- 5 days ago
Category
📺
TVTranscript
00:00C'est presque impossible pour notre système nerveux de gérer ça.
00:09Ils ont conçu le bouton « J'aime », le jeu « Fortnite » et le « Scroll », le défilement infini.
00:16C'est comme si on avait saupoudré de la cocaïne dans nos applications.
00:21Les anciens concepteurs reconnaissent avoir contribué à nous rendre accros à nos écrans.
00:26Ils tentent aujourd'hui de renverser la tendance.
00:29Bienvenue à Découverte.
00:46Qu'est-ce qui rend nos téléphones si captivants?
00:49Souvent, on le prend pour vérifier un détail.
00:51Et 30 minutes plus tard, on a encore le nez dedans.
00:54Et vous allez le voir, c'est loin d'être un hasard.
00:57Ce soir, on vous invite à plonger dans l'univers du design persuasif.
01:02On nous en met plein la vue pour capter notre attention.
01:10Mais derrière l'écran, quelqu'un tire les ficelles.
01:14Les géants du numérique misent sur la psychologie humaine pour exploiter les failles de notre cerveau.
01:20Donc, il y a vraiment une expertise très forte qui s'est développée pour truquer le cerveau humain.
01:24On met souvent la faute sur les utilisateurs.
01:30On oublie ceux qui les manipulent.
01:33Nous, on a choisi de braquer les projecteurs sur les tactiques pour nous rendre captifs.
01:37On vient qu'on n'a même plus besoin d'y penser, qu'on va directement.
01:40On devient le petit chien de Pavlov.
01:43On a obtenu des témoignages uniques.
01:46Celui qui a conçu le défilement infini, le fameux scroll.
01:50C'est comme une machine à sous conçue pour vous rendre accro.
01:58Celle qui a inventé le bouton « j'aime » et qui est tombée dans son propre piège.
02:03Je l'ai inventé pour moi et je suis moi-même devenue accro.
02:11Et celle qui est derrière l'immense succès du jeu vidéo Fortnite.
02:15On est conscients qu'on va manipuler.
02:17Et le problème, c'est quand cette manipulation est là pour favoriser la monétisation et la rétention.
02:23C'est une manipulation qu'on retrouve autant dans les jeux vidéo que les réseaux sociaux.
02:27De l'autre côté de l'écran, il y a des chercheuses qui se battent.
02:30C'est très injuste.
02:31En fait, on est comme des fois David contre Goliath.
02:34Alors que les gens derrière l'écran, eux, ont des moyens illimités.
02:38Ce qui me met en colère, c'est nos enfants qui sont les rats de laboratoire.
02:43Mais les choses commencent à bouger.
02:45Des anciens concepteurs ont traversé l'écran.
02:48Ils aident aujourd'hui à renverser la tendance.
02:51Pour libérer nos cerveaux pris en otage.
03:05Ils sont nés en même temps que Facebook et le iPhone.
03:08Et certains sont tombés dedans quand ils étaient tout petits.
03:10Je m'appelle Léo. J'ai 17 ans.
03:13Je m'appelle Stelio.
03:14J'ai 18 ans.
03:16Moi, c'est Emma. J'ai 16 ans et j'ai des réseaux sociaux depuis que j'ai 12 ans.
03:20J'ai un téléphone intelligent très, très jeune. 5-6 ans.
03:25L'an dernier, des collègues de Radio-Canada ont réuni un groupe d'ados qui ont grandi entourés d'écrans.
03:30Moi, j'utilise les réseaux sociaux pour passer mon temps.
03:35Avant de me coucher, j'ai ma télé et mon sel.
03:38Ça, c'est comme bam, double.
03:39Je suis tellement accro.
03:42Je ne peux pas arrêter.
03:43Maintenant, je veux voir la vidéo que je viens juste à fermer.
03:46Tu n'es pas capable de me l'enlever.
03:47Tu n'es pas capable de faire autre chose que de regarder mon téléphone.
03:50Je peux rester jusqu'à une heure du matin à la school sur TikTok à ne rien faire de ma vie.
03:55Puis, genre, je ne peux même plus croire que j'ai fait ça.
03:58J'ai gaspillé mon sommeil pour ça.
04:05Les ados ne sont pas les seuls à avoir de la difficulté à se contrôler.
04:09Pour comprendre pourquoi, on s'est rendu en Californie, dans la Silicon Valley.
04:13C'est ici qu'on retrouve les géants du web.
04:20Comme partout ailleurs, les gens ont le nez dans leur téléphone.
04:23Entre autres, depuis l'invention du défilement infini.
04:26Et son créateur, c'est lui, Azaraskin.
04:29C'est sûr, ne pas déranger.
04:31Oui, parfait.
04:33Il a déjà calculé que son invention engloutit l'équivalent d'un million de vies humaines chaque jour.
04:40J'ai inventé ça avec la meilleure des intentions.
04:44Mais ça a été détourné par l'industrie pour faire des choses horribles.
04:51Aujourd'hui, quand je marche ou que je prends le métro, je vois tout le monde le nez dans son téléphone.
05:00Il y a 20 ans, il n'y avait pas encore vraiment de réseaux sociaux.
05:03Il voulait juste enlever un irritant.
05:05Quand on arrivait en bas d'une page, il fallait cliquer pour afficher du nouveau contenu.
05:09J'ai inventé ça pour aider les gens.
05:11Si tu n'as pas encore trouvé ce que tu cherches, on t'en affiche automatiquement plus.
05:17Mais je n'avais pas réalisé que ça enlevait le signal d'arrêt.
05:21Votre cerveau ne se dit jamais, c'est bon, j'ai terminé.
05:24Je vais aller faire autre chose.
05:31Ça joue sur une des failles dans notre cerveau.
05:33On a besoin d'un repère visuel.
05:36Si notre assiette est vide, c'est qu'on a fini de manger.
05:39Quand il n'y a pas de signal d'arrêt, bien, on continue.
05:41Et c'est particulièrement vrai avec les réseaux sociaux.
05:45Il y a 20 ans, la technologie, c'était amusant.
05:50Mais aujourd'hui, un seul être humain peut faire d'immenses dégâts.
05:56Et on vous dit que c'est votre faute si vous n'arrivez pas à vous contrôler.
05:59Tu veux brûler la graisse?
06:00Tu as les effets en poursuivre?
06:02Et dans cette recette, pour garder notre attention, il y a un autre ingrédient.
06:06Je suis la première à être tombée là-dedans.
06:07Oh my God, genre, qui a like ma story?
06:09Puis, tu sais, j'arrive toujours à regarder.
06:11Tu veux des likes?
06:12S'ils like, c'est parce qu'ils m'aiment, puis tout ça.
06:14Tu veux quelqu'un, genre, qui t'aime.
06:17Tu veux des personnes qui t'aiment.
06:18Et tu as beaucoup de personnes qui peuvent t'aimer.
06:21Avant, je publiais pour avoir une validation des autres.
06:27Oh my God, cette personne-là, elle a like.
06:29Puis, tu ne t'y attendais pas.
06:30Ça fait que tu es full heureuse.
06:31Celle qui est derrière le fameux bouton « j'aime » a disparu des écrans radars.
06:42Elle vit dans les montagnes du Vermont, un peu coupées du monde.
06:46Elle n'accorde plus d'entrevues depuis longtemps.
06:48Mais pour nous, Léa Perelman a fait une exception.
07:02Avec la réputation que ça a maintenant, je ne m'en serais jamais vantée.
07:06Quand j'ai aidé à créer le bouton « j'aime », j'avais 26 ans et j'étais mal dans ma peau.
07:15Pour moi, recevoir de la validation, ça pouvait juste être une bonne chose.
07:22Je ne savais pas que ça pouvait créer une dépendance.
07:29Elle a fait partie des tout premiers employés chez Facebook.
07:33Avant le bouton « j'aime », on pouvait seulement écrire des commentaires.
07:37Si je publie « je viens d'avoir mon diplôme », tout le monde va me féliciter.
07:45Ce n'est pas très excitant.
07:48Le bouton « j'aime », ça permettait de regrouper tous les commentaires répétitifs.
07:57Et ça a tout de suite marché.
07:59Même un peu trop bien.
08:01C'est devenu une véritable course au « j'aime ».
08:04Ça m'a pris des années avant de réaliser l'impact de calculer le nombre de « j'aime » qu'on reçoit.
08:11On a confondu ça avec une preuve qu'on a de la valeur.
08:14Qu'on mérite d'être aimé.
08:17Ensemble, Asa et Léa ont créé un terrain de jeu infini.
08:25On y cherche ce qu'il y a de plus précieux.
08:27Ça partait d'une bonne intention, ce qui n'est pas le cas de tout le monde, selon Asa.
08:31C'est comme si on avait saupoudré de la cocaïne dans nos applications.
08:37Derrière chaque écran, il y a quelqu'un qui cherche volontairement à vous rendre dépendant.
08:41Il y en a plusieurs qui ont appris ça ici.
08:47On est en plein cœur de la Silicon Valley à l'Université Stanford.
08:51Il y avait ici un laboratoire spécialisé en technologies persuasives, avec à sa tête le professeur B.J. Fogg.
08:57Il avait baptisé son approche « la captologie » pour « Computers as Persuasive Technologies ».
09:13C'est d'utiliser la technologie pour influencer nos comportements.
09:17En fait, le grand génie de Fogg, ça a été de mettre un bel emballage tout neuf à de la vieille science,
09:22celle de la psychologie comportementale.
09:23Une des expériences les plus célèbres, c'est le chien de Pavlov, il y a plus d'un siècle.
09:32Pavlov avait conditionné un chien à saliver au son d'une cloche avant même qu'il voit sa nourriture.
09:38Aujourd'hui, ce sont les géants du numérique qui nous conditionnent.
09:42On s'excite quand on reçoit une notification parce qu'on s'attend à une récompense.
09:48Magali Dufour est chercheuse spécialisée en dépendance.
09:51C'est une discipline qui s'est développée avec l'alcool et les drogues, mais qui s'applique aussi à nos téléphones.
09:57Plus on me donne de la récompense, plus je vais reproduire mon comportement.
10:00Je le prends 200 fois par jour, je le prends 500 fois par jour.
10:06Donc, j'ai renforcé, j'ai consolidé ce comportement-là un nombre de fois qu'on n'a pas dans les autres substances.
10:13On revient qu'on n'a même plus besoin d'y penser, qu'on va directement.
10:16On devient le petit chien de Pavlov.
10:17Il y a une autre expérience qui a eu énormément d'impact.
10:24Elle a été faite ici, à Montréal, dans les années 50.
10:28Des chercheurs ont branché des fils dans le cerveau d'un rat.
10:32En mettant les fils au bon endroit, ils s'auto-stimulent sans arrêt.
10:37Ça a mené à la découverte du circuit de la récompense.
10:41Il est activé quand on ressent du plaisir.
10:43Le cerveau produit alors de la dopamine, et on en veut toujours plus.
10:49C'est le mécanisme qui mène aux dépendances, que ce soit à des substances ou aux écrans.
10:55Et Léa l'a vécu de plein fouet.
10:56Je l'ai inventé pour moi.
11:03Et je suis moi-même devenue accro.
11:09J'ai un souvenir très précis.
11:12Je suis dans ma voiture, mon téléphone est sur le tableau de bord.
11:15J'avais décidé de ne plus regarder Facebook.
11:19Et ça me prenait toute la volonté du monde.
11:22C'est là que j'ai commencé à réaliser que j'avais créé quelque chose qui peut rendre dépendant.
11:28Même quand on crée ce genre d'outils, et qu'on connaît parfaitement les mécanismes,
11:35on peut devenir accro.
11:37Dans mon cas, ça a été Twitter et Reddit.
11:41On n'est pas à l'abri.
11:46Pour Magali Dufour, c'est pas une drogue comme les autres.
11:49Parce qu'on l'a dans nos poches.
11:51Ce qui est différent, c'est l'accessibilité.
11:53Même avec les substances, il y a quand même un aspect plus complexe, plus restreint, parfois illégal.
11:58Bref, il y a quand même autre chose que vous l'avez constamment avec vous.
12:02Puis en plus, ça nous donne l'hormone plaisir.
12:05Qu'est-ce que vous voulez de plus, là?
12:07Puis on vous dit, contrôlez-vous.
12:09C'est important de reconnaître ce qu'on a fait.
12:15Je veux dire, je suis désolée que nos expérimentations aient créé le monde dans lequel on vit.
12:24C'est presque impossible pour notre système nerveux de gérer ça.
12:28Je ne peux pas l'accessibilité.
12:31Je ne peux pas l'accessibilité.
12:32Hazard, lui, ne peut pas mettre un pied dehors sans ressentir un poids énorme sur ses épaules.
12:36Que ce soit dans la rue ou à un souper, je vois des gens, je vois mes amis, la tête penchée, le visage éclairé par la lumière de leur téléphone et qui font défiler l'écran.
12:52Pour moi, c'est un rappel constant.
12:54Ce qu'on a fait, ce que j'ai fait, est en train d'engloutir le monde.
12:58C'est cette culpabilité-là qu'il pousse à agir.
13:04Hazard Haskin va prendre les armes pour dénoncer l'exploitation dans les réseaux sociaux.
13:09Mais on retrouve la même dans une autre industrie, celle des jeux vidéo.
13:14Sous-titrage Société Radio-Canada
13:44On est en juin 2025.
13:48L'industrie du jeu vidéo s'est donnée rendez-vous à Toronto.
13:54Célia Adam est comme un poisson dans l'eau ici.
13:57Pourtant, son expertise à elle, c'est la psychologie cognitive.
14:10Mais ce qui en fait une sommité, c'est son rôle dans Fortnite.
14:14Le jeu connaît un immense succès et c'est en partie grâce à elle.
14:18Célia a dirigé l'équipe qui avait pour mission de rendre le jeu amusant et facile à comprendre.
14:24Son arme secrète, c'est sa connaissance du cerveau.
14:27Mais c'est une arme à double tranchant.
14:29On est conscient qu'on va manipuler, mais j'aime bien faire la distinction entre les magiciens et les pickpockets.
14:36Les deux vont manipuler votre attention, par exemple.
14:39Sauf que le magicien va le faire normalement avec consentement, alors que les pickpockets vont aussi manipuler votre attention.
14:45Parce qu'ils vont faire en sorte de vous shipper quelque chose sans que vous en aperceviez.
14:49Ce n'est pas la pratique qui est problématique, c'est l'intention qui est derrière.
14:54Et dans sa version de Fortnite, il y avait aussi des pickpockets.
14:58Les joueurs, souvent des jeunes, y ont dépensé des milliards.
15:02Entre autres à cause de certains mécanismes qu'elle avait intégrés dans le jeu.
15:06Comme des piñatas qu'on pouvait acheter dans la boutique du jeu.
15:09Avec à l'intérieur des récompenses choisies au hasard.
15:12Et c'est là le problème.
15:17Les premiers indices remontent aux années 50 avec les travaux du psychologue américain B.F. Skinner.
15:23Il était convaincu qu'on peut percer les secrets du cerveau en laboratoire.
15:31Dans un de ses tests, chaque fois qu'un pigeon appuie sur un bouton, il obtient une récompense.
15:37Mais quand les récompenses sont données au hasard, il appuie en continu même s'il ne reçoit plus rien.
15:42Il devient accro.
15:44Exactement comme dans un casino.
15:48Entre-temps, Fortnite a retiré les récompenses aléatoires payantes.
15:52Sauf que le mécanisme, lui, s'est répandu dans les jeux vidéo.
15:55Depuis qu'ils sont devenus mobiles, mais surtout gratuits.
15:59Parce que ça implique de faire de l'argent autrement.
16:01Un terrain de jeu idéal pour les pickpockets.
16:05C'est en tout cas le constat de Maud Bonenfant.
16:08Ça fait 20 ans qu'elle étudie les jeux vidéo.
16:11Assez pour remarquer qu'il y a un dérapage.
16:13Il y a vraiment une expertise très forte qui s'est développée pour truquer le cerveau humain.
16:18Ce qui me met en colère, c'est vraiment qu'on manipule nos enfants.
16:22Au nom des profits, on utilise ce genre de stratégie-là au détriment des enfants.
16:29Ce qui l'intéresse, ce sont les mécanismes pour truquer le cerveau.
16:41Et pour les débusquer, elle fait appel à toutes sortes d'expertises.
16:46Allô!
16:47Allô, Simon!
16:48Celle de Simon Delorme, c'est la neuropsychologie.
16:51Ça permet de se battre avec les mêmes armes que les développeurs de jeux.
16:54On sait c'est quoi les biais cognitifs des humains.
16:57On sait comment les déjouer, puis on sait comment déjouer ceux des enfants.
17:00Son équipe a décortiqué des centaines de jeux mobiles gratuits.
17:03Ici, on voit un jeu, il y en a... il y en a vraiment beaucoup, là, de notifications.
17:09Et ils ont trouvé plein de façons de capter les joueurs.
17:14Comme d'offrir des récompenses de plus en plus grandes si on joue tous les jours.
17:18Ou d'en offrir toutes les cinq minutes pour qu'on continue à jouer.
17:22Là, tu commences à être dans une spirale de jeux que tu contrôles pas, toi, que le jeu décide à ta place.
17:28Mais le véritable objectif, c'est d'en tirer profit.
17:30Ça, c'est quand même un jeu de trois ans et plus.
17:33Donc, à partir de trois ans, regarder de la publicité pour ouvrir des cadeaux, c'est correct.
17:37C'est ça.
17:39La publicité, c'est une des sources de revenus.
17:43L'autre, c'est d'offrir de payer pour avancer plus rapidement dans le jeu.
17:47On fait de la vente à pression aussi.
17:49Donc, toutes sortes de stratégies pour pousser l'enfant.
17:53Un autre des mécanismes qu'on exploite, c'est la FOMO, pour Fear of Missing Out.
17:59C'est la peur de rater quelque chose d'important si on n'est pas en train de jouer.
18:03Et ça, souvent, les parents, ils le savent pas.
18:05Mais l'enfant, lui, il comprend qu'il faut qu'il retourne fréquemment.
18:09Toute cette peur-là de la perte, cette peur-là de manquer quelque chose,
18:12qui vient nous stimuler à jouer, tu sais.
18:14Il n'y a jamais de fin, en plus.
18:16Non, c'est ça.
18:17À ces jeux-là.
18:20Et de tous les jeux qu'elle a étudiés, il y a une conclusion à retenir.
18:26Il n'y a aucun jeu mobile gratuit que je conseille pour les enfants, malheureusement.
18:32Ils ont tous la tendance à utiliser ce genre de mécanique-là.
18:35Je suis quelqu'un de très... vraiment facilement amené à être addict à des choses.
18:44Le sucre, les jeux vidéo.
18:46Je faisais même plus mes devoirs. Je faisais rien. J'étais genre coincé sur le jeu.
18:51C'est genre une addiction.
18:52Des jeunes accros aux jeux vidéo, Magali Dufour en traite depuis une vingtaine d'années.
19:00Et depuis 2018, c'est reconnu comme une dépendance, au même titre qu'avec l'alcool ou la drogue.
19:06Quand on regarde au niveau du cerveau, il y a des aspects semblables en termes de dopamine.
19:10Donc, quand on va parler du circuit de la récompense, il y a des similitudes entre la dépendance aux substances et aux jeux vidéo.
19:18Clairement, avec la neuromuagerie, on le voit bien.
19:22Célia Adam reconnaît que certains mécanismes utilisés dans les jeux ont causé du tort.
19:27Quand on innove et qu'on travaille, que ce soit le jeu vidéo ou des outils, on va faire des erreurs.
19:34Par contre, une fois que l'erreur est identifiée, il faut agir dessus.
19:37À partir du moment où on a une position claire au niveau scientifique, où là, c'est problématique, il faut changer les pratiques.
19:45Juste après la sortie du jeu Fortnite, elle a quitté l'entreprise.
19:49Elle critique aujourd'hui les pickpockets qui se sont multipliés avec les jeux mobiles gratuits.
19:53Tous les jeux qui vont exploiter les enfants, ça, ça vient me chercher clairement.
19:58Mais aussi, c'est franchement pas éthique.
20:00C'est pas agréable de voir que des méthodes et des connaissances qui sont là justement pour mieux vivre en société
20:08devront être utilisées pour exploiter l'être humain.
20:11Il y a plein de parallèles à faire avec les réseaux sociaux.
20:17Eux aussi sont à la fois mobiles et gratuits.
20:20On y exploite aussi la FOMO avec des publications éphémères.
20:24Si on veut rien rater, il faut être là en continu.
20:28Mais ce qu'on cherche plus que tout, ce sont les récompenses aléatoires découvertes par Skinner.
20:36Avec une machine à sous, on tire sur un levier et on ne sait jamais ce qu'on va recevoir.
20:41Et c'est un des mécanismes les plus puissants pour créer une dépendance.
20:45Le défilement infini, c'est comme une machine à sous conçue pour vous rendre accro.
20:54Là, on ne sait pas ce que ça fait au cerveau de nos enfants d'avoir, par exemple, autant de sécrétion de dopamine
21:01suite à un excès de récompenses.
21:04Et là, c'est nos enfants qui sont les rats de laboratoire.
21:07C'est ça qui me fâche le plus dans l'industrie actuelle.
21:10On a contacté différents joueurs de l'industrie.
21:14TikTok n'a pas émis de commentaires officiels.
21:17Pour Facebook et Fortnite, on n'a pas eu de réponse.
21:20Mais plusieurs anciens concepteurs, eux, ont changé leur fusil d'épaule.
21:27Après la pause.
21:29Interdire les modèles d'affaires qui exploitent les enfants.
21:32On interdit la vente d'organes humains.
21:36Quand quelque chose est sacré, on le protège.
21:40Qu'est-ce qu'il faudrait que ces compagnies-là fassent pour avoir notre bien-être à cœur, je pense?
21:56C'est une drôle de question.
21:57C'est comme tu me demandes de faire pousser un pommier avec une graine d'orange.
22:04Tu peux juste pas.
22:04C'est tellement néfaste.
22:06Puis je pense, pour eux, ils s'en foutent.
22:08Pour de vrai, ils s'en foutent parce qu'eux, ils veulent juste faire de l'argent.
22:12C'est aussi ça qui fait peur, en même temps.
22:15Je sais pas si j'ai répondu à la question.
22:17C'est vraiment ça.
22:18C'est la réponse.
22:21C'est peut-être une mission impossible.
22:24Mais Hazard Haskin a choisi de s'attaquer aux géants du numérique.
22:29La question est très simple.
22:32Combien vous payez pour vos réseaux sociaux?
22:36Rien.
22:37Alors?
22:37Pourquoi est-ce qu'ils valent des milliards et des milliards?
22:43Leur modèle d'affaires, c'est d'influencer vos comportements et de vendre ce changement de comportement à quelqu'un d'autre.
22:50Ils font de l'argent en vous manipulant.
22:52Ici Hazard Haskin, bienvenue à notre balado. Posez-nous toutes vos questions.
23:03Tristan Harris est un ancien employé de Google.
23:07Ensemble, ils ont cofondé le Center for Humane Technology, avec un mandat qui ratisse large, rendre la technologie plus éthique.
23:14Il y a cinq ans, ils ont frappé un grand coup sur Netflix.
23:22Dans The Social Dilemma, en français derrière nos écrans de fumée, des anciens hauts placés de Facebook, Google, Twitter et autres dénonçaient leur propre création.
23:31Des applications conçues pour rendre accro et maximiser les profits.
23:35Alors, cinq ans plus tard, est-ce que ça a changé?
23:43C'était un peu trop tard. Rien n'a vraiment changé. Pourquoi?
23:48Parce qu'une bonne partie de la société était déjà prise en otage.
23:53Tout passe par les réseaux sociaux.
23:55Le journalisme.
23:58La politique.
24:01Et même nos jeunes grandissent en ligne.
24:05J'étais plus actif. J'étais plus, genre, je parlais à tout le monde. J'avais aucun filtre. J'étais une boule de joie, là.
24:14Maintenant, je suis rendu un peu, genre, c'est ça, antisocial.
24:18Je me comparais trop aux autres, puis je voulais trop la confirmation, la validation des autres.
24:22Genre, tu critiques beaucoup, tu te rends insécure parce que tu vois les autres, tu veux être comme quelqu'un.
24:28Je me sentais tellement seule que je m'isolais. Ça a tout impacté.
24:35J'ai souvent une pensée pour eux. Je ne voudrais pas être une adolescente aujourd'hui.
24:40Je n'avais pas imaginé les impacts d'un manque de validation.
24:44Je m'étais dit, il suffit d'ajouter un bouton et je vais recevoir plein de j'aime.
24:49Je n'avais pas pensé à l'impact que ça aurait sur moi quand on n'en reçoit plus.
24:53Léa Perlman a, elle aussi, souffert du regard des autres, et pas seulement en ligne.
25:04Elle a quitté Facebook pour des raisons personnelles.
25:06Et elle a suivi un parcours assez surprenant.
25:09Il fallait que ça contraste avec mon ancienne vie.
25:16Et j'ai découvert des problèmes beaucoup plus intéressants que où mettre tel ou tel bouton.
25:24Elle a remplacé son ordinateur par une table à dessin.
25:28Des dessins qui racontent sa quête.
25:30Remplacer la validation extérieure par celle qui vient de l'intérieur.
25:34Je ne le fais pas juste par plaisir.
25:39Souvent, ça s'adresse à des gens en particulier.
25:43Le message, c'est souvent de s'aimer soi-même.
25:46C'est ce que j'ai dû apprendre à faire.
25:52En plus des dessins, elle fait aujourd'hui de la formation et de l'accompagnement.
25:56Pour aider ceux qui voudraient suivre ses traces.
26:00Qu'est-ce que je dirais à une jeune fille qui attend un j'aime?
26:04Pourquoi attendre?
26:09Si tu veux te sentir fière, sois fière dès maintenant.
26:13Pourquoi attendre que quelqu'un d'autre t'en donne la permission?
26:16Quand je fais un dessin ou un poème dont je suis vraiment heureuse,
26:21je ne sens pas nécessairement le besoin de le partager.
26:25Parce que c'est l'acte de créer qui me fait dire...
26:28Wow! Je m'aime et c'est formidable!
26:31Léa a beau avoir quitté Facebook, son bouton j'aime est resté.
26:39C'est même lui qui nourrit l'algorithme.
26:42Plus on aime quelque chose, plus on va nous en montrer souvent.
26:45Et parfois, ça tourne mal.
26:47C'est important de dire ce qui a dérapé avec les réseaux sociaux.
26:54Parce que ce qui s'en vient est encore plus puissant.
26:57Ce qui l'inquiète, c'est l'intelligence artificielle.
27:03Et c'est ça le nouveau combat d'Aza et Tristan.
27:04Ça va surpasser l'humain en matière de persuasion.
27:10Au départ, l'algorithme se contentait de choisir des contenus parmi ce que les autres publient.
27:16Aujourd'hui, l'intelligence artificielle peut en créer sur mesure en fonction de ce qu'on aime.
27:21On ne cherche plus à comprendre ce qui rend accro les humains en général.
27:27Mais ce qui vous rend accro vous, personnellement.
27:32Les réseaux sociaux vont trouver ce qui vous fait réagir.
27:39On n'a aucun anticorps.
27:42L'évolution ne nous a pas préparés à ça.
27:44Ce n'est pas déprimant de porter ces messages-là?
27:50La réponse courte, c'est oui.
27:57Ce qui lui donne un peu d'espoir, c'est qu'il y a des endroits où on interdit les réseaux sociaux au moins de 16 ans.
28:06D'autres où le téléphone n'a plus sa place à l'école.
28:09Cette interdiction sera mise en place dès la prochaine rentrée scolaire.
28:13Ça, c'est génial.
28:14Et ce qui se passe au Québec se passe aussi en Australie et ailleurs dans le monde.
28:18Mais j'ai surtout hâte qu'on s'attaque directement aux modèles d'affaires qui exploitent les enfants.
28:26Ce n'est pas une idée si radicale.
28:30On interdit la vente d'organes humains.
28:32On interdit la vente d'orphelins.
28:35Quand quelque chose est sacré et qu'on doit le protéger,
28:41ben, on le protège.
28:45Hazard Raskin voit venir les problèmes de loin.
28:47Et il voudrait qu'on agisse plus vite.
28:50Mais pour agir, il faut des données solides.
28:53Et ça, ça prend du temps.
28:54Après la pause, le combat de David contre Goliath.
29:08Eux, ils ont beaucoup de moyens, puis ils peuvent s'adapter pour avoir de l'argent qu'ils peuvent faire ce qu'ils veulent.
29:12Sous-titrage Société Radio-Canada
29:13Sous-titrage Société Radio-Canada
29:14Sous-titrage Société Radio-Canada
29:15...
29:18But like, it's okay!
29:22Do you sleep how much time per day?
29:24Okay, I don't sleep.
29:25Okay, I don't sleep.
29:27Do you sleep how much time per day?
29:30My parents tell me 2 hours and a half per day, on my phone.
29:35Do you think I look?
29:374 hours and a half.
29:39Okay, for the week, it's like 7 hours and 28 minutes.
29:43And then total screen time, it's 47 hours.
29:46Oops!
29:47But I'm not going to be super happy to see it on the TV.
29:50I have a problem.
29:52It's a lot of hours on the phone.
29:57It's true that 7 hours per day, we can ask questions.
30:00But there's not really a magic number.
30:03I would like to tell you that there are rules super well valid.
30:07You know, all the scientists can understand.
30:09But we're not able, for the moment, scientifically speaking,
30:11to say that all those who do 3 hours,
30:13there are 30% of chances that they develop a problem at long term.
30:16But at long term, we're not there in our studies.
30:19We're not there in our studies.
30:20We're not there in our studies.
30:21We're not there in our studies.
30:22We're not there in our studies.
30:23We're not there in our studies.
30:24We're not there in our studies.
30:25We're not there in our studies.
30:26But in our studies, it's a very important part of our studies.
30:29It's to say that it's not just a great use.
30:31It's a use where we've lost control, where there's an aspect of the obsession,
30:36and where there's a consequence.
30:40And when we have these three aspects, it's at this moment that we're going to talk about
30:43the dependence.
30:44Des jeunes véritablement dépendants,
30:46il y en a moins qu'on pense.
30:48C'est environ 3 %.
30:50On parle des cas extrêmes.
30:52Mais ce qui touche beaucoup plus de monde,
30:54c'est qu'il y a d'autres impacts sur la santé mentale.
30:56Et ils sont bien documentés.
30:58Trop d'écrans, ça nuit au sommeil
31:00et à l'activité physique.
31:02Et ça, ça se répercute sur l'humeur.
31:04Et pour certains, ça peut même aller plus loin.
31:06Mais il y a des dangers pour de vrai.
31:08Ça accentue les problèmes d'estime de soi,
31:12l'humeur dépressive.
31:13On va voir des fois de l'anxiété.
31:15Ça peut créer des problèmes de troubles,
31:17même pour le trouble alimentaire.
31:19Oui, il y a des méfaits.
31:21Mais ce qui brouille les cartes,
31:23c'est qu'il y a aussi des impacts positifs.
31:25Ça peut aider à socialiser ou à trouver du soutien.
31:27Et donc, on ne peut pas généraliser
31:29à toute une population
31:31les impacts individuels, bons ou mauvais.
31:35Ce qui est frustrant pour les chercheuses,
31:37c'est que les données dont elles auraient besoin existent.
31:39Les entreprises analysent en continu
31:41tout ce qu'on fait en ligne.
31:43Mais elles gardent les données pour elles.
31:45C'est très injuste.
31:47En fait, on est comme des fois David contre Goliath.
31:49On est très peu nombreux avec peu de moyens.
31:51Eux, ils ont beaucoup de moyens,
31:53puis ils peuvent s'adapter pour avoir de l'argent,
31:55ils peuvent faire ce qu'ils veulent.
31:57On est très vite contre Goliath.
31:59Mais on essaie de faire ce qu'on peut
32:01pour changer les choses.
32:03Et pour changer les choses,
32:05Maude Bonenfance est elle-même transformée.
32:07Bonjour, Madeline.
32:09Bonjour, Mouille.
32:11Elle est devenue une pirate informatique pour la bonne cause.
32:15Là, on va procéder par l'extraction de tout le code.
32:19Avec l'informaticien Madeline Lupoux,
32:21elle fouille directement dans le code informatique des jeux.
32:25C'est un peu comme leur ADN.
32:27Quand les programmeurs utilisent un design malveillant,
32:29ça laisse des traces.
32:31On a trouvé des mots-clés qu'on considère problématiques.
32:34Ça veut dire qu'un logiciel a été utilisé pour avoir des récompenses,
32:39avoir des publicités, peut-être traquer l'utilisateur.
32:43Et si tu veux rajouter des mots-clés...
32:45C'est possible.
32:47Et c'est ça qui l'intéresse.
32:49Savoir quelles tactiques sont utilisées
32:51pour déterminer à quel groupe d'âge le jeu convient.
32:57Parce qu'en ce moment, c'est l'industrie qui fixe ses propres règles.
33:01S'il n'y a pas de sexe ou de violence, tout le monde peut jouer.
33:05Ça passe sous le radar.
33:07Mais quand les gens vont vraiment réaliser
33:09que les enfants sont en train de faire des jeux de hasard et d'argent
33:13avec des petits animaux tout mignons,
33:15je pense que là, il va y avoir vraiment un éveil du public.
33:19Son rêve, c'est d'avoir une régie du numérique indépendante
33:23pour encadrer l'industrie.
33:27On pourrait, mécanique par mécanique,
33:29évaluer à partir de quel âge
33:31le cerveau de l'enfant est prêt
33:33à interagir avec ce genre de mécanique-là
33:35pour faire des jeux
33:37qui soient sécuritaires et sains pour les enfants.
33:39Je pense qu'il n'y a pas juste
33:41les chercheurs, chercheuses qui ont envie qu'il y ait des changements.
33:45La preuve, c'est qu'après Fortnite,
33:47Célia Adam a changé son fusil d'épaule.
33:51Aujourd'hui, elle milite pour que l'industrie du jeu vidéo
33:55prenne un virage éthique.
33:57Donc, ce qui est le plus naturel,
33:59c'est que pour aller en suivant,
34:01ça va être en bas à droite.
34:03Oui.
34:05Elle met ses connaissances en psychologie cognitive
34:07au service de ceux qui appuient sa cause.
34:09Les personnes avec qui je travaille
34:11sont des gens passionnés
34:13qui s'intéressent aux jeux vidéo et notamment
34:15les développeurs indépendants
34:17veulent absolument avoir une charte éthique
34:19et ils ont cette vision du jeu vidéo
34:21comme étant une forme d'art.
34:25Ça, beau être un art, il faut qu'un jeu soit rentable,
34:27mais sans exploiter les joueurs.
34:29Et c'est encore plus difficile quand le jeu est gratuit.
34:33Vraiment, c'est pas facile de trouver cet équilibre.
34:36Faire en sorte que le jeu continue d'être intéressant
34:38parce que sinon, les gens s'en vont
34:40et puis après, le jeu ferme, le studio ferme
34:42et tout le monde est envoyé.
34:43Et trouver la limite où on exploite complètement
34:46les biais humains pour presque forcer les gens à revenir
34:49et les faire acheter des choses qu'ils ne voulaient pas.
34:52En favorisant les bons développeurs,
34:54la quête de Célia Adam rejoint celle de Maude Bonenfant
34:57qui dénonce les mauvais.
34:59Magali Dufour, elle, se concentre sur les impacts pour les gens.
35:02Elle a mis sur pied le tout premier plan d'intervention
35:06en cyberdépendance à l'échelle provinciale.
35:09Je veux, idéalement, puis c'est que partout au Québec,
35:12il y ait des meilleurs traitements possibles qui soient offerts.
35:17Côté recherche, il reste une question centrale à trancher.
35:20Celle de l'œuf ou de la poule.
35:22Est-ce qu'une personne a d'abord un problème de santé mentale
35:25et qu'elle se réfugie ensuite sur ce sujet?
35:28Ou si c'est à force de faire de l'écran qu'elle développe un problème?
35:32C'est une zone grise qui profite à l'industrie.
35:34Mais il commence à y avoir quelques études qui montrent du doigt les écrans.
35:38Personnellement, c'est vraiment un avis personnel, je pense que la science est mûre.
35:50Par contre, l'industrie ne veut pas.
35:52À l'instant, tout l'aspect législatif sur l'encadrement des jeux, des réseaux sociaux
35:57et même d'Internet au complet est encore, je dirais, à ses débuts.
36:03Il y a quand même eu des avancées.
36:05Par exemple, aux États-Unis, Fortnite a été condamné à cause d'un design trompeur.
36:10Les joueurs achetaient des choses sans s'en rendre compte.
36:13Son créateur a écopé d'une amende record.
36:16Ces victoires-là, elles ont l'avantage de faire du bruit.
36:21Oui, c'est encore David contre Goliath, mais chaque petite victoire
36:25ou chaque avancée du côté des législations, ça profite à tout le monde.
36:30De toute façon, à la fin, c'est David qui gagne, non?
36:33Oui, voilà. Alors, on espère bien pouvoir changer les choses.
36:38En attendant que David gagne, comment apprivoiser Goliath?
36:42Après la pause, le génie est sorti de la bouteille.
36:49Aujourd'hui, empêcher les enfants de participer aux réseaux sociaux,
36:52c'est comme empêcher les enfants de s'appeler entre eux il y a 30 ans.
37:05De tous nos participants, c'est probablement Léo qui a fait le choix le plus étonnant.
37:10À un moment donné, on a décidé, bon, bien, regarde, on arrête.
37:12C'est quoi que tu as besoin sur un téléphone? Appeler, texter.
37:15Et on a décidé de, finalement, m'acheter un flip.
37:19Texte-moi. Moi, c'est Léo, j'ai 17 ans.
37:21Ça va être très, très long, je le dis tout de suite.
37:23Moi, ça va si je mets C, mais je sais.
37:26Ah, merde, j'ai eu 17 ans.
37:29Envoyé.
37:31N'empêche que les écrans sont là pour rester.
37:40Et chacun a sa manière de composer avec.
37:44Comme société, la solution, c'est d'ajouter des obstacles.
37:50On installe des dodans pour rendre les rues plus sécuritaires.
37:53On ajoute des taxes sur les cigarettes.
37:57Alors, pourquoi ne pas le faire avec la technologie?
38:02Comme individu, le plus simple, c'est de ralentir votre connexion Internet.
38:07Ça rend l'expérience moins agréable, mais ça donne du temps à votre cerveau pour décider d'arrêter.
38:14Il y a une contradiction parce qu'on protège beaucoup les enfants.
38:21Puis à côté, on leur donne ces objets-là qui sont, pour moi, très dangereux.
38:26On va descendre.
38:27Vas-y.
38:29Je dirais que mes enfants sont chanceux et pas chanceux.
38:34Ils ont, je crois, un bon encadrement vu mon expertise.
38:39Mais en même temps, évidemment, j'interdis certaines choses que d'autres parents permettent.
38:43Il y a plein de belles choses dans les réseaux sociaux.
38:49Aujourd'hui, empêcher les enfants de participer aux réseaux sociaux,
38:52c'est comme empêcher les enfants de s'appeler entre eux il y a 30 ans.
38:56Parce que les enfants ont besoin d'apprendre à manipuler ces plateformes
39:00pour qu'ils soient prêts quand ils sont en ductus.
39:04On ne peut pas mettre les gens dans des garde-robes.
39:07C'est presque un point de vue personnel.
39:08Je pense qu'il faut apprendre à vivre.
39:10Et plus on aide les jeunes très tôt à avoir les méfaits,
39:15à prendre conscience des méfaits et à avoir un cadre pour les utiliser,
39:19plus ça va être facile.
39:21J'ai beaucoup d'empathie pour ceux qui doivent naviguer là-dedans.
39:28Les enfants, les parents.
39:31C'est important de reconnaître le mal qu'on a fait, oui, c'est vrai.
39:35Mais ma responsabilité première, c'est de m'occuper de moi.
39:40Si je ne me sens pas bien en utilisant les réseaux sociaux, on s'en fout qui les a créés.
39:46C'est à moi d'arrêter et d'aller marcher dans l'herbe.
39:49C'est ça, ma responsabilité.
39:52Mes parents se sont rendu compte à un moment donné que ça n'allait pas.
39:58C'est eux qui m'ont fait faire le switch d'arrêter de toujours vouloir la validation des autres.
40:07Toujours être trop sur mon sel pour de vrai.
40:11Je ne l'ai jamais dit à mes parents, mais pour de vrai, je suis vraiment reconnaissante qui ça fait ça.
40:20Au moins une fois dans ta vie, tu devrais supprimer toutes les applications, avoir deux semaines de libre,
40:25genre juste un petit test pour voir comment ta vie serait sans les réseaux sociaux.
40:30Honnêtement, je veux les supprimer, mais ça ne va pas arriver.
40:36Il y a une partie en moi qui veut les supprimer, mais c'est plus facile à dire que comme l'affaire.
40:57C'est quoi la solution?
40:59C'est tellement tough comme question.
41:04Selon moi, la solution, c'est trouve-toi, je le dis comme ça, trouve-toi d'autres choses à faire.
41:10C'est de te donner quelque chose encore plus addictif, bon pour toi,
41:14qui va te faire comme je lève mon affaire de l'écran et ça, c'est difficile.
41:22C'est ta vie qui compte, c'est pas l'Internet.
41:25Voilà, c'est ainsi que se termine notre émission.
41:44De la part de toute l'équipe, merci d'avoir été là.
41:46Bonsoir.
41:47Bonsoir.
41:48Bonsoir.
41:49Bonsoir.
41:50Tu fus…
41:51Transcription by CastingWords
42:21CastingWords
Be the first to comment