- il y a 3 mois
Jeudi 18 septembre 2025, retrouvez Laure Miller (Députée Ensemble pour la République de la Marne), Jean-Christophe Le Toquin (Cofondateur, Stisa), Alain Staron (cofondateur, Artifeel), Nosing Doeuk (responsable de l'offre développement data et IA, MC2i) et Alain Staron (Cofondateur, Artifeel) dans SMART TECH, une émission présentée par Delphine Sabattier.
Catégorie
🗞
NewsTranscription
00:00Bonjour à tous, bienvenue dans Smartech, vous nous regardez, on est en direct sur la chaîne Bsmart.
00:13C'est l'heure et le rendez-vous du grand débrief de l'actu tech.
00:17Je vous présente les sujets et les commentateurs juste après notre jingle.
00:24C'est parti pour le grand débrief de la tech.
00:27Aujourd'hui, autour de la table, nous avons des personnes qui sont venues à vélo, en trottinette, qui ont bravé la grève.
00:34Merci beaucoup à tous les trois.
00:35Jean-Christophe Le Toquin, cofondateur de Stisa, réseau mondial de lutte contre la violence sexuelle par l'image.
00:42Merci beaucoup d'avoir fait tout ce chemin jusqu'au studio de Smartech.
00:46Alain Staron, merci aussi.
00:48Fondateur et PDG d'Artifil, je le répète, notre disrupteur préféré.
00:53Merci Alain également de nous avoir rejoint.
00:54Enosim Doc qui est nouveau dans l'exercice du débrief.
00:58Enchanté, bienvenue.
01:00Merci aussi d'avoir fait tout ce trajet.
01:01Vous êtes directeur du pôle Data, IA et Cyber du cabinet de conseil MC2I.
01:07Alors, de quoi allons-nous débattre aujourd'hui ?
01:09On va parler de l'annonce de l'arrivée d'un contrôle parental dans ChatGPT.
01:14Tout ça annoncé dans le cadre d'un suicide d'un adolescent.
01:17Est-ce que vous pensez que c'est rassurant comme prise de décision de la part d'OpenAI ?
01:23Ou alors que c'est vraiment la fausse bonne idée ?
01:26J'entendrai vos points de vue tout à l'heure.
01:28On va parler aussi des nouvelles lunettes de méta et de ces innovations pour chacun aussi donner son avis.
01:34Est-ce que vous vous dites, waouh, c'est vraiment génial tout ce secteur de la tech.
01:39On est en train de vivre un moment important parce qu'il y a vraiment de nouveaux appareils qui vont nous connecter au réseau.
01:44Ou alors, ça vous fait peur ?
01:46Mais on commence avec un tout autre sujet, puisque la commission d'enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs,
01:55présidée par le député Arthur Delaporte, a rendu ses conclusions début septembre.
02:00Et nous sommes connectés avec sa rapporteuse, Madame la députée, ensemble pour la République de la Marne, Laure Miller.
02:07Bonjour.
02:08Bonjour.
02:09Merci aussi de nous rejoindre à distance.
02:12On a vu déjà beaucoup de commentaires autour de vos travaux et des résultats de l'enquête de la commission.
02:20TikTok présentait comme finalement le pire du pire.
02:24Est-ce que c'est ça vraiment, selon vous, le pire des réseaux sociaux aujourd'hui, TikTok, pour les mineurs ?
02:31Alors, c'est en effet le sentiment qu'on avait lorsqu'on a, en tout cas moi,
02:35lorsque j'ai proposé la création de cette commission d'enquête, donc au début de l'année,
02:39parce qu'on voit bien que c'est en tout cas celui qui est à la fois, qui attire le plus la jeunesse aujourd'hui.
02:46On voit bien l'explosion de l'usage de TikTok depuis finalement le Covid, donc juste après sa création, jusqu'à aujourd'hui.
02:53On voit bien que voilà, ça va de façon crescendo et que par ailleurs, c'est celui qui est le plus redoutable,
02:59on va dire en termes d'addiction, mais aussi en termes de mauvaise modération.
03:04En tout cas, c'est ce qu'on a pu percevoir à travers les travaux qu'on a effectués pendant les 4-5 derniers mois.
03:09Et c'est la raison pour laquelle, en effet, on a choisi de pointer du doigt TikTok,
03:13tout en disant bien, dans un second temps, qu'en réalité, ce qu'on voit, c'est que les autres réseaux sociaux
03:18tentent à copier TikTok, puisqu'il est extrêmement addictif et extrêmement redoutable,
03:22et que donc les préconisations qu'on formule à l'issue de ces travaux portent finalement sur l'ensemble des réseaux sociaux,
03:29s'agissant en tout cas de notre jeunesse.
03:30Oui, c'était ma question. Est-ce que vos recommandations peuvent vraiment s'appliquer à tous les réseaux sociaux ?
03:35Est-ce qu'il y a des spécificités notables chez TikTok ?
03:39Est-ce que la question aussi d'un réseau social piloté par la Chine pose un problème, selon vous, spécifique pour le public le plus jeune ?
03:51Alors oui, pour répondre à vos questions, en effet, TikTok, ce qu'on a mis en évidence,
03:55c'est deux éléments qui nous semblent faire partie intégrante de sa stratégie et qui sont, comme je le disais, copiés par les autres.
04:01Le premier, c'est le design qui est extrêmement addictif.
04:04Finalement, TikTok, ce sont les premiers à avoir conçu cette idée de vidéo qui défile de façon infinie,
04:09en mode plein écran sur nos téléphones, et qui en effet nous conduisent à rester très très longtemps,
04:15parce que c'est un peu comme le phénomène des machines à sous.
04:17Comme vous ne savez pas quelle est la vidéo qui va suivre, vous avez envie de rester,
04:21et finalement vous partez pour 15 minutes et puis vous restez finalement deux heures.
04:24En tout cas, c'est ce qui se produit chez nos jeunes.
04:26Et le deuxième élément redoutable chez eux, c'est l'algorithme qui est très singulier,
04:30qu'on ne connaît d'ailleurs pas très bien puisqu'il y a beaucoup de secrets autour de leur algorithme,
04:34mais qui est un algorithme très enfermant qui arrive à capter toutes les 4-5 secondes
04:39des éléments supplémentaires sur nous, sur ce qu'on est, sur ce qu'on a envie de voir,
04:44et qui fait qu'en tout cas chez les très jeunes, il y a un côté très enfermant
04:48qui va parfois jusqu'au pire, puisque les contenus sont beaucoup de contenus trash,
04:55de contenus radicaux, et c'est ce qui enferme.
04:57Et pour répondre à votre dernière question, en effet, et ça pour le coup,
05:00c'est un travail qui avait été fait par les sénateurs,
05:01qui avaient aussi fait l'année dernière une commission d'enquête,
05:06mais qui était vraiment ciblée sur la question des ingérences étrangères.
05:08Et en effet, on peut quand même se poser la question,
05:11ils ont, eux, un TikTok qui s'appelle Douine chez eux,
05:15qui est extrêmement limité, extrêmement contrôlé vis-à-vis de leur jeunesse,
05:18puisqu'il y a des contenus éducatifs, puisqu'il s'éteint à 22h le soir
05:22pour laisser les enfants dormir notamment,
05:24et chez nous, ils nous envoient un TikTok qui est complètement débridé.
05:28Jean-Christophe, je voulais vous faire réagir sur la partie contenu dangereux,
05:32parce que lors de l'enquête, on a été mis en avant, par exemple,
05:34des contenus incitants à l'automutilation chez les jeunes.
05:40Est-ce qu'il vous semble aussi que c'est le pire du pire TikTok aujourd'hui
05:43sur la diffusion de contenus dangereux, délétères pour la jeunesse ?
05:47Effectivement, comme ils sont très populaires auprès des jeunes,
05:50forcément, donc tout ce qu'ils font,
05:52et étant les premiers, les leaders, ils veulent le garder,
05:55forcément ce qui va pouvoir dériver va se retrouver sur TikTok.
05:59Mais comme l'a dit Madame la députée,
06:01les autres n'ont qu'une pensée,
06:04c'est arriver à retrouver la même efficacité,
06:06je dirais, commerciale, je dirais, traditionnelle,
06:09et qui va donc effectivement pouvoir arriver aux mêmes dérives.
06:13Donc c'est extrêmement important d'avoir une vision globale,
06:17et viser et transformer TikTok en bouc émissaire,
06:21c'est leur rhétorique,
06:23c'est comme ça qu'ils le vivent en fait,
06:25n'est pas le plus efficace.
06:27Ça a été une enquête houleuse en plus, je vois Alain réagir, oui ?
06:33Oui, en fait, effectivement, TikTok est en tête,
06:35effectivement, les autres veulent le copier,
06:37et donc le meilleur moyen d'éviter la copie,
06:39c'est d'arrêter TikTok.
06:40Sinon, la dérive va continuer à l'infini.
06:43Oui, c'est-à-dire que quoi ?
06:44Que ça sert de leçon aux autres, c'est ça ?
06:45Non, mais si on voit que c'est un danger,
06:48et même si on suppose sans en être sûr que c'est un danger,
06:50qu'est-ce qu'on va attendre qu'il y ait beaucoup plus de suicides
06:52pour dire, ah oui, vraiment, il faut l'arrêter ?
06:54Mais au moins, il y a un principe de précaution
06:55qu'il devrait s'appliquer aussi.
06:56J'entends déjà donc un pour, l'interdiction de TikTok.
06:59C'est moi.
07:00Au moins de 15 ans ?
07:01Au moins de 15 ans.
07:01Au moins de 15 ans.
07:02Enfin, dès qu'ils ont pas...
07:03Et le truc que je trouve vachement bien dans le rapport,
07:05c'est d'avoir créé un...
07:06Non, c'est pour l'autre sujet, c'est pas pour celui-là.
07:10Avant de faire ce petit tour de table sur pour-contre,
07:12je voulais revenir sur l'enquête quand même,
07:14qui a été, je disais, assez houleuse,
07:16avec des influenceurs plutôt rétifs, pour être gentils.
07:20En tout cas, c'était des influenceurs aussi qui étaient sur la sellette,
07:22donc ils arrivaient en position défensive.
07:26Est-ce que vous avez le sentiment,
07:27parce qu'on en a vu certains claquer la porte,
07:29entre guillemets, enfin en tout cas se déconnecter
07:31pendant leur audition,
07:33est-ce qu'il vous semble quand même
07:34qu'il y a un début de prise de conscience
07:36de l'impact qu'ils peuvent avoir auprès de leur public,
07:39leur mille heures ?
07:41Alors, je ne sais pas si j'irais jusque-là.
07:43Oui, ils étaient en effet très lucides sur...
07:45Tous ont dit, d'ailleurs,
07:47qu'ils préconisaient d'interdire l'application,
07:51donc d'interdire TikTok aux plus jeunes,
07:53parce que tous ont bien conscience
07:55et nous expliquaient que, finalement,
07:57ce sont les contenus, comme je le disais,
07:58qui sont les plus problématiques,
08:00qui sont les plus payants,
08:01les plus rémunérateurs,
08:02que la plateforme pousse.
08:04Et donc, eux l'ont très bien compris
08:05et l'appliquent à leur propre façon de faire
08:07sur TikTok en particulier.
08:09Donc, ils savent que c'est des vidéos
08:10sur lesquelles il faut les premières secondes
08:13attirer les gens.
08:14Et donc, comment est-ce qu'on attire ?
08:16On attire en allant vers le trash,
08:18en allant vers quelque chose de très radical
08:19pour que les gens restent.
08:21Donc, ils étaient très lucides.
08:22Mais finalement, c'est juste les profiteurs
08:24d'un système qui existe à travers
08:26la logique TikTok et la stratégie TikTok.
08:28Donc, l'idée n'était pas de les blâmer particulièrement
08:30ou de faire de moraliser cette commission d'enquête.
08:33C'était simplement, moi, je trouve,
08:35l'intérêt, comme en plus,
08:36on en a beaucoup entendu parler,
08:37de montrer aussi aux parents,
08:38voilà, en fait, ces influenceurs-là,
08:40ces TikTokers,
08:42eh bien, c'est ce que regardent vos enfants.
08:44Parce qu'en fait,
08:44tous les parents connaissent TikTok,
08:46mais est-ce que beaucoup de parents
08:47sont déjà allés sur l'application
08:48pour regarder les comptes les plus suivis
08:50par la jeunesse aujourd'hui ?
08:51Ça, c'est moins sûr.
08:52Et donc, c'était une manière de dire,
08:54vous voyez, voilà,
08:55ceux-là, ils sont suivis par des millions de jeunes
08:57dans notre pays et ailleurs.
08:59Et voilà à quoi ça ressemble.
09:00Il y a une suite qui sera donnée
09:02sur les contenus qu'ils diffusent
09:04et qui sont parfois vraiment problématiques.
09:08Il y a déjà des suites qui ont été données.
09:10Vous savez, alors,
09:10je ne veux pas faire de la publicité,
09:12mais par exemple,
09:12Adé Laurent,
09:13qui diffuse des contenus
09:14à caractère très sexuel
09:17et avec une vision de la femme
09:18extrêmement contestable.
09:20Masculiniste, du tout.
09:21Oui, là, masculiniste.
09:22Et il y en avait d'autres.
09:23Lui, par exemple,
09:24a été banni de la plateforme.
09:25Seulement, est-ce que c'est vraiment le rôle
09:27soit d'un parlementaire,
09:28soit d'une ministre
09:29de devoir faire le tri
09:31dans une masse de contenus problématiques
09:34et d'interpeller TikTok
09:36pour qu'il daigne retirer de la plateforme
09:38des contenus problématiques ?
09:39Je ne crois pas.
09:40Donc, ça montre justement
09:41qu'il y a un vrai problème structurel
09:44et que TikTok ne fait pas l'effort
09:46et n'a pas une modération satisfaisante
09:49dans les contenus qu'il diffuse
09:50et qu'il le fait sciemment
09:51parce qu'en fait,
09:52ce sont des contenus
09:53qui lui rapportent de l'argent.
09:55Nocine.
09:55Oui.
09:56Quel est votre avis sur cette affaire ?
09:58Faut-il ou non interdire
10:00ou limiter à certains contenus ?
10:03Je ne sais pas.
10:04Ce réseau social TikTok
10:05a au moins de 15 ans.
10:06Je vais dire quelque chose
10:07qui est un petit peu contre-nature pour moi
10:09parce que je suis un professionnel de numérique
10:10et un passionné de numérique.
10:11Je vais dire oui
10:12par le principe de précaution
10:13que j'ai déjà entendu.
10:15Oui.
10:16Et chez moi,
10:18il n'est pas autorisé par mes enfants.
10:2015 ans, ça vous semble le bon âge ?
10:22Comme limite ?
10:22Il y a un débat là-dessus
10:23parce qu'évidemment,
10:24est-ce que c'est 15 ans ?
10:25Est-ce que c'est 16 ans ?
10:26Est-ce que c'est 17 ans ?
10:26En tout cas, factuellement,
10:28aujourd'hui,
10:28la majorité numérique en France
10:30est de 15 ans.
10:31Donc, c'est un bon repère.
10:33Officiellement,
10:33mais alors,
10:33ce n'est pas vraiment mis en œuvre ?
10:35Oui, c'est le problème aujourd'hui.
10:36Effectivement,
10:36le contrôle de l'âge aujourd'hui,
10:38les technologies existent,
10:39mais elles sont au bon vouloir
10:41des personnes qui veulent les déployer
10:42et ce n'est pas correctement déployé.
10:44Je dirais sur un principe de précaution,
10:46non, il faut l'interdire,
10:47mais je dirais que ce n'est pas suffisant.
10:48Il y a toutes les propositions
10:50qu'a faites Madame la députée
10:51qui sont la sensibilisation,
10:53le fait d'en parler.
10:54Ça, c'est très important
10:55parce qu'il faut que les parents
10:56et les jeunes comprennent
10:57en fait l'impact.
10:59C'est pour moi un travail de fond.
11:01Mais effectivement,
11:02à très court terme,
11:03c'est un produit
11:03qui peut être nocif.
11:05Jean-Christophe,
11:06pour ou contre l'interdiction
11:07de TikTok aux moins de 15 ans ?
11:09Nous, on n'a pas de...
11:10Je pense que c'est surtout
11:11pour collecter l'information.
11:13Je pense que ce qui est important
11:15et ce qui est presque abordé
11:17dans le rapport,
11:18mais pas tout à fait,
11:19c'est essentiel d'arriver
11:21à faire cette remontée de terrain
11:22qui a été faite par la Commission
11:23venant des associations,
11:26des signes de confiance,
11:26des experts.
11:28Et aujourd'hui,
11:28je crois qu'on ne comprend pas assez
11:30l'importance
11:31de que cette information de terrain
11:32remonte vers les autorités
11:34et vers le politique français
11:36en fait,
11:37pour qu'on sache dire.
11:38parce qu'en fait,
11:39les plateformes,
11:40elles sont noyées
11:41par l'information,
11:42par leur propre information
11:43et la manière
11:44d'avoir de l'impact sur elles,
11:47c'est de leur remettre
11:48sous le nez
11:48les informations qu'elles trouvent.
11:50Et ce rapport
11:50est hyper utile pour ça
11:51et va rester,
11:52je pense,
11:53pour TikTok
11:53et ils vont mettre du temps
11:54à le digérer,
11:55mais ils vont le digérer.
11:56C'est qu'elles mettent
11:57sous leur nez
11:58ce qu'ils ne veulent pas
11:58forcément voir
11:59parce qu'il y a des priorités
12:00de business,
12:02de concurrence,
12:02etc.
12:02et ils oublient.
12:04Faire les obliger
12:04à traiter
12:05chaque cas,
12:06finalement,
12:07c'est vrai ?
12:07Oui,
12:07et puis de construire
12:09un système
12:09où on va pouvoir
12:10comprendre le terrain,
12:12ce que voient
12:12les parents,
12:13les enfants
12:13et d'amener
12:14cette réalité
12:16devant la collectivité.
12:19Oui,
12:20c'est ça.
12:21TikTok a une société
12:22sœur en Chine
12:23qui ne fait pas ça du tout,
12:24donc je pense au contraire
12:25qu'on arrête
12:26d'être naïf,
12:26ils sont particulièrement lucides,
12:27c'est de la soft power,
12:28ils sont là
12:29pour nous dézinguer
12:30et ils le font.
12:32Ou bien
12:32ils nous remettent
12:33les contenus chinois
12:33que j'ai vus
12:34qui sont géniaux.
12:35C'est une façon
12:35de mettre la pression
12:36en disant
12:36nous voilà,
12:37il y a ça,
12:38ça,
12:38ça qui nous faut.
12:38On coupe à 22 heures,
12:40on coupe à 22 heures TikTok,
12:41ça c'est facile,
12:42c'est pour tout le monde,
12:43on cherche à mettre en place
12:44des contrôles d'âge
12:45et on sait bien
12:46que ce n'est pas forcément facile
12:46et effectivement
12:47on peut aussi travailler
12:48sur les contenus
12:48mais qui copie le TikTok chinois
12:50que je trouve vachement bien moi ?
12:52Ça c'est une politique,
12:53c'est justement
12:54une politique occidentale
12:55de faire ce que font
12:57les autres gouvernements.
12:58C'est une question
12:59éminent politique
13:00et...
13:01Il y a un autre chemin
13:02qui a été choisi
13:03par les Etats-Unis,
13:04c'est de dire
13:04finalement on prend
13:05un contrôle encore plus important
13:07sur cette plateforme,
13:09à la fois sur les données
13:10qui sont collectées,
13:11utilisées,
13:12mais aussi même sur
13:12l'algorithme maintenant
13:14qui sera vraiment piloté
13:15par les Américains
13:16et non plus par la Chine.
13:19Finalement,
13:20moi je voulais vous faire
13:20réagir là-dessus
13:21Madame Miller,
13:22c'est que
13:23en proposant
13:25une interdiction
13:26de TikTok
13:27au moins de 15 ans,
13:27on fait reporter
13:29la responsabilité
13:30sur les parents
13:31qui ne contrôlent pas suffisamment
13:32ce que font leurs enfants,
13:33on empêche des utilisateurs
13:34de 15 ans
13:35qui ont quand même
13:36peut-être envie
13:36de pouvoir se connecter
13:37aux réseaux sociaux
13:37avec leurs amis,
13:39mais en revanche,
13:40quelle pression on met
13:41sur cette plateforme TikTok ?
13:43Est-ce qu'on manque pas
13:44un petit peu de volonté
13:45justement vraiment politique
13:46de s'attaquer directement
13:48aux plateformes ?
13:50Mais je pense qu'on peut
13:51et on doit d'ailleurs
13:52sur ce sujet
13:53mener plusieurs combats
13:54de front,
13:55c'est-à-dire le fait
13:56d'interdire demain
13:57la plateforme
13:58pour les moins de 15 ans
13:59et toutes les plateformes
14:01de réseaux sociaux
14:02pour les moins de 15 ans,
14:03c'est comme plusieurs l'ont dit
14:04sur le plateau,
14:05un principe de précaution
14:06et de protection
14:08de notre jeunesse,
14:09c'est-à-dire on sait
14:09qu'à court terme,
14:10ça nous permet d'éviter
14:12qu'il y ait d'autres drames
14:13et d'éviter que nos jeunes
14:14soient encore une fois
14:15biberonnés à des contenus
14:17qui sont pour beaucoup
14:18nocifs
14:19et qui ne leur font pas du bien.
14:20En revanche,
14:21ça ne doit pas nous exonérer,
14:23vous avez raison,
14:24d'un combat à plus large échelle
14:25mais qui prend un petit peu
14:27plus de temps,
14:27il faut bien le dire,
14:28à l'échelle de l'Union européenne
14:29qui est en effet
14:30d'imposer un pluralisme algorithmique
14:32qui est évidemment essentiel,
14:34on le voit bien,
14:35de reprendre la main en effet
14:36pas forcément sur ces plateformes
14:38mais de nous créer aussi
14:39des plateformes,
14:40des réseaux sociaux éthiques
14:42qui seraient
14:42d'origine occidentale,
14:45d'origine de l'Union européenne.
14:47On pourrait interdire
14:48pour l'infini Madame la députée
14:49par exemple,
14:50on pourrait décider
14:50que c'est une pratique
14:51que l'on ne tolère pas
14:52sur les réseaux sociaux,
14:54on pourrait décider aussi
14:55de prendre le contrôle
14:56nous aussi sur ces algorithmes
14:58ou en tout cas
14:59d'exiger une véritable transparence.
15:00Il y a des choses
15:01à faire aussi.
15:02Oui, il y a des choses
15:02techniquement bien sûr
15:03mais je dirais que le sujet
15:04est compliqué
15:05et comme tout combat compliqué
15:06il se gagne
15:08sur plusieurs fronts en fait.
15:09Et je voudrais revenir
15:10sur un front
15:10qui a été cité dans le rapport
15:12et qui a été un petit peu dévoilé,
15:13c'est aussi sur la responsabilisation
15:15de tous les acteurs,
15:15la responsabilisation des parents.
15:17On ne peut pas toujours reporter
15:19la faute aux parents.
15:20Il y a la responsabilité
15:21des plateformes,
15:22on en a beaucoup parlé
15:22mais je pointe aussi
15:24la responsabilité
15:24des producteurs de contenu.
15:26Si moi demain
15:27j'incite au suicide,
15:29je suis pénalisé.
15:30Il faut que les producteurs
15:32de contenu
15:32qui font des contenus
15:33qui sont jugés illicites
15:34soient pénalisés.
15:36Aujourd'hui,
15:36il y a une zone
15:38quasiment de non-droit
15:39et en tout cas
15:40on ne se sent pas concerné
15:41et on ne se sent pas inquiété
15:42quand on fait des choses
15:43qui sont un peu bordures
15:44parce que ça nous rapporte
15:45de l'argent.
15:45Donc je pense qu'il faut
15:46responsabiliser
15:47tous les acteurs
15:48de la chaîne,
15:48du producteur jusqu'au consommateur.
15:50En tout cas,
15:50on peut vous féliciter
15:51pour ce travail,
15:52cette commission d'enquête
15:53Laurent Miller.
15:55Merci beaucoup
15:55d'avoir été avec nous.
15:57Je rappelle que vous êtes
15:57député de la Marne
15:59Ensemble pour la République.
16:00Merci encore.
16:01Nous,
16:02on continue à parler
16:03de la protection des mineurs
16:05puisqu'il y a eu
16:06cette annonce
16:07d'arrivée,
16:08de lancement
16:08d'un contrôle parental
16:09dans le chat de GPT.
16:11OpenAI a pris
16:12cette décision
16:14à la suite
16:15d'une affaire dramatique,
16:16le suicide d'un jeune
16:17de 16 ans
16:18aux Etats-Unis
16:19dont les parents
16:20accusent le chat de GPT
16:21de l'avoir encouragé
16:22dans sa dépression
16:24et jusqu'à l'acte fatal.
16:26Alors,
16:27ce contrôle parental
16:28dans le chatbot
16:30mis en place
16:31par l'IA générative
16:32d'OpenAI,
16:33ça vous semble être
16:34une bonne idée
16:34ou vraiment
16:35une fausse bonne idée ?
16:37Qui veut donner
16:38son avis en premier ?
16:40Allez, Alain.
16:43Ce principe,
16:43moi j'adhère,
16:45mais j'ai une confiance
16:46peut-être exagérée
16:47dans les capacités
16:47des algos.
16:48Le principe,
16:49c'est quoi ?
16:49Le principe,
16:49c'est d'arriver
16:50à comprendre
16:50à travers les échanges
16:52quel est l'âge mental,
16:53pas civil,
16:54l'âge mental
16:54de l'interlocuteur.
16:56La deuxième chose,
16:57c'est être capable
16:57de détecter
16:58des dérives
16:59de dépression
17:01et voire pire.
17:03Moi, je trouve
17:03sur le principe
17:03que c'est une bonne idée,
17:05il y aura comme toujours
17:06des erreurs,
17:07il y aura des faux positifs,
17:08il y aura des faux négatifs,
17:09donc il faut se préparer à ça,
17:10mais enfin,
17:10on vient d'une situation
17:11où il n'y a rien.
17:12C'est de toute façon
17:13pas idiot.
17:14Et l'autre chose
17:15que je trouve bien,
17:16et je ne sais pas
17:17si c'est vraiment faisable,
17:18c'est comme il faut s'inscrire
17:19pour avoir un compte
17:19sur le CHGPT,
17:21si on est mineur,
17:21qu'il y a un compte parent.
17:23C'est ça.
17:24Ça permet de renforcer,
17:25on dit tous,
17:26les parents doivent
17:26se responsabiliser,
17:28là ils donnent un outil.
17:30Je trouve ça bien.
17:31Jean-Christophe ?
17:32Toute évolution
17:34qui vise
17:35à améliorer la sécurité
17:36et l'intégrer
17:37dans les services
17:39est forcément
17:40une bonne chose en soi.
17:42Quand on regarde
17:42le monde automobile,
17:43la science de sécurité
17:44en France,
17:45c'est 1973,
17:46c'est 80 ans,
17:4790 ans
17:48après la création
17:48de la voiture.
17:49Donc là,
17:49à CHGPT,
17:50on est à 2 ans,
17:51quelques années,
17:52déjà ils commencent
17:52à mettre des dispositifs
17:54et ça va devenir
17:54vraiment une attente
17:57forte des citoyens.
17:58C'était un sujet
17:59d'ailleurs du côté
18:00des fournisseurs d'accès,
18:01ça a pris un petit peu
18:02de temps à se mettre
18:03en place,
18:03le contrôle parental
18:04c'est devenu maintenant
18:05la ceinture de sécurité
18:07basique.
18:08Pour autant,
18:09ça ne nous a pas protégé
18:10de tous les dangers.
18:11Non,
18:11après rien n'est parfait,
18:13donc ça serait intéressant
18:14de voir comment ils l'installent.
18:16Là,
18:16c'est toujours la question
18:16pour l'Europe
18:17qui n'a ni la puissance
18:19technologique américaine
18:20ni la puissance politique
18:21chinoise.
18:23On a nous
18:23une force
18:26qui est comme un cadre,
18:27je dirais,
18:28droit de l'homme,
18:28droits humains,
18:29pas droit,
18:30qui est intéressant.
18:32Mais pour que ça ait
18:32de la valeur,
18:33il faut qu'on puisse
18:34remonter de l'info
18:35chez nous.
18:36C'est-à-dire que toute politique
18:37qui dise à dire
18:38on va pousser
18:39les acteurs technos
18:40à se responsabiliser
18:41tout seul,
18:41ça veut dire
18:42qu'on reste aveugle
18:43sur ce que voient
18:44nos citoyens,
18:45nos parents.
18:45Donc pour l'Europe,
18:47c'est essentiel
18:48qu'on développe
18:49le réflexe
18:50qui n'est pas là
18:50aujourd'hui,
18:51de dire
18:51il faut qu'on ait
18:52une remontée
18:53de terrain
18:54extrêmement proche,
18:55qu'on sache
18:55ce qui se passe
18:56chez nous
18:56avant de pousser
18:58nos citoyens,
18:59nos parents,
18:59nos enfants
19:00à aller parler
19:01à Tchad GPT,
19:02à TikTok,
19:02etc.
19:03Parce que si on est aveugle,
19:04on ne peut pas
19:05comprendre où on va.
19:06On pourrait aussi
19:07leur dire
19:07d'aller sur Mistral.
19:09Aussi.
19:11Interroger le chat.
19:12C'est ça.
19:13Notre avis
19:14sur le contrôle parental
19:15moi,
19:15mon avis,
19:16c'est qu'avant
19:16le contrôle parental,
19:18je souhaiterais déjà
19:18un mode enfant.
19:20Un mode où
19:20quand les enfants
19:21l'utilisent,
19:22déjà,
19:23il y a une sécurité
19:23sans contrôle parental.
19:25Ça,
19:26ce n'est pas difficile
19:26à faire.
19:27Technologiquement,
19:28c'est très simple
19:28à faire.
19:29La question est,
19:29est-ce que c'est rentable ?
19:31C'est si simple
19:32à faire d'ailleurs.
19:33C'est très simple
19:34parce que
19:34vous filtrez
19:37le contenu.
19:38Le propre
19:39de ces outils,
19:39c'est de sélectionner
19:40la bonne information.
19:41Il suffit de rentrer
19:42dans les algorithmes
19:43le fait de filtrer
19:44des informations
19:44qui ne soient pas
19:45on va dire
19:46accessibles
19:47à des mineurs.
19:48Et ça,
19:48il suffit de définir
19:49ce qu'on entend par là.
19:50Mais il va être très limité.
19:51Est-ce que les jeunes
19:51vont avoir envie
19:52de l'utiliser
19:52parce que finalement,
19:53très vite,
19:53il va dire
19:54ah ben ça,
19:54je ne peux pas en parler.
19:55Les jeunes,
19:55ils veulent toujours
19:55plus trash.
19:57Donc ça ne va pas.
19:57Il faut arrêter
19:58tant pis
19:58s'ils n'en ont pas envie.
19:59En fait,
19:59ils l'utilisent
20:00comme un confident.
20:01Ce n'est pas forcément trash.
20:02Mais voilà,
20:03si l'adolescent
20:05ne peut plus parler
20:06de sa détresse,
20:07il ne va plus aller
20:07vers la petite petite.
20:09Un mode enfant,
20:10ça ne veut pas dire
20:10forcément interdire
20:11le contenu.
20:12Ça veut dire
20:12les présenter
20:13d'une certaine manière
20:14qui soit acceptable
20:15et adapté
20:16pour son public.
20:18Et puis je dirais
20:18que là,
20:19on parle de contrôle parental.
20:19Moi,
20:19je préfère le terme
20:20plutôt d'accompagnement parental
20:21parce que le principe
20:23en fait d'un contrôle parental,
20:25c'est la première chose
20:26à laquelle on pense,
20:26c'est le blocage.
20:27Or,
20:28ce genre d'outil
20:28est très important
20:29quand même
20:30pour le développement
20:31et l'appropriation
20:32du numérique.
20:33Et donc,
20:33moi,
20:33je préfère plutôt
20:34des outils
20:35qui permettent effectivement
20:36d'avoir des comptes famille
20:37qui permettent
20:38de créer
20:39une forme de lien
20:39entre les parents
20:40et les enfants
20:41qui permettent aux parents
20:42d'accompagner
20:43dans,
20:43on va dire,
20:44l'utilisation correcte
20:45de ce genre d'outil.
20:46Mais bon,
20:46est-ce qu'un ado
20:47de 14-15 ans
20:48va continuer
20:49à se confier
20:49sur ce qu'il pense
20:50ou sa colère
20:51vis-à-vis de ses parents
20:51parce que parfois
20:52c'est ça,
20:53il m'énerve,
20:54mon père,
20:55et ma mère,
20:56n'en parlons pas.
20:58S'il sait que justement
20:59il partage son contact
21:00avec ses parents,
21:01est-ce que ça a un sens
21:02véritablement pour vous ?
21:03Moi,
21:03je m'interroge
21:04sur le sens,
21:04l'utilité
21:05de ce contrôle parental
21:07dans un chatbot
21:08qui est utilisé
21:08par les jeunes
21:09visiblement
21:09pour se confier,
21:10trouver,
21:11comment je vais
21:12les séduire machines,
21:14tout ce qui nous passe
21:16par la tête
21:17quand on est adolescent,
21:17on n'a pas envie
21:18de le partager
21:18avec ses parents.
21:19Donc on arrête
21:20d'utiliser ChatGPT
21:21s'il y a un contrôle parental.
21:22Non, je ne pense pas.
21:23Je pense que dans le numérique,
21:24vous pouvez faire
21:24beaucoup de choses.
21:25L'imagination est très forte
21:26et la technologie est là.
21:27Vous pouvez imaginer
21:28beaucoup de choses.
21:28On peut très bien
21:29trouver des mécanismes
21:30de contrôle sans partager
21:31par exemple l'historique
21:32et la vie privée
21:33sans que les jeunes
21:34sentent que sa vie privée
21:36soit ouverte
21:37y compris à ses parents.
21:38Il y a plein de mécanismes
21:39possibles.
21:40C'est une question de volonté.
21:41C'est une question
21:41de conception.
21:42Tout à fait possible.
21:43On fait des choses
21:43très importantes
21:45et très intéressantes
21:45quand il y a du business.
21:46Là, il faut le faire aussi
21:47sur un angle qui est différent,
21:49qui est l'angle des valeurs.
21:51Jean-Christophe,
21:52est-ce qu'il y a d'autres solutions
21:53qui pourraient être mises en oeuvre ?
21:54Parce qu'il y a effectivement
21:55pour moi,
21:55il y a un problème
21:55de responsabilité
21:56de la part d'OpenAI
21:58mais plus seulement
21:59de mettre entre toutes les mains
22:01finalement
22:01des technologies
22:03hyper puissantes
22:04dont on ne sait plus
22:06tellement comment
22:06on peut avoir
22:07le contrôle dessus.
22:08Aujourd'hui,
22:09on est dans une société
22:10qui privilégie
22:11je dirais
22:11l'innovation
22:12on lance les produits
22:13et puis après
22:14les produits sont
22:15parfois à l'insu
22:16de leurs créateurs
22:17détournés par l'utilisateur.
22:18Donc ça,
22:19on fait ça avec la voiture.
22:21Pour l'instant,
22:22on n'autorise pas
22:23les voitures autonomes
22:24à rouler
22:24n'importe comment,
22:26n'importe où.
22:27Oui.
22:27On met des limites.
22:28Et là,
22:29on n'a pas pensé
22:29dans le monde réel.
22:30On a peut-être
22:30au monde virtuel,
22:31on a moins le réflexe
22:33de comprendre
22:34la dangerosité
22:34de ça.
22:35Et ça pose la question
22:36et c'est souligné
22:37par le rapport
22:37de Mme Mier
22:38sur l'importance
22:40justement
22:41de comprendre
22:42l'environnement
22:43dans lequel
22:44on travaille.
22:45et si on est dans
22:47cette logique
22:48de liberté
22:49et ça ne va pas
22:50changer
22:50à partir de là.
22:51Et effectivement,
22:52les enfants
22:53ne vont pas
22:53parler avec leurs parents.
22:55Donc quel est
22:55le tissu
22:56éducatif
22:58et collectif
22:59qu'on met en place
22:59près du terrain
23:00et on est dans
23:01un terrain politique ?
23:02Il faut aller,
23:02je pense,
23:03moins se focaliser
23:04sur les gens
23:05qui sont hors
23:06de notre portée
23:06et plutôt mailler
23:08le terrain
23:08et se focaliser là-dessus
23:09où là,
23:10on a un contrôle.
23:10et on est peut-être
23:12trop éblouis
23:13collectivement
23:14par les TikTok
23:15et les grands acteurs
23:16alors qu'en fait,
23:17notre champ d'action
23:18à nous,
23:18il est...
23:19On a la matière
23:19en fait.
23:20On a la matière
23:20et on la laisse partir
23:21en notre contrôle.
23:23Et puis peut-être
23:24qu'il faut imposer
23:25aussi dans ces outils
23:26des messages
23:27pour faire de la pédagogie
23:28de l'éducation numérique.
23:29Comment fonctionne
23:30ce chatbot ?
23:32Quelles sont ses limites ?
23:33Quelles sont ses compétences
23:35et ses incompétences ?
23:36Et ça,
23:36on devrait imposer
23:37ces messages d'alerte
23:38systématiquement.
23:38On n'a plus beaucoup de temps.
23:39Il en reste 4 minutes
23:40pour notre dernier sujet.
23:41Je voulais vous faire réagir
23:42sur l'innovation
23:43présentée dans les nouvelles lunettes
23:45par Méta,
23:47les lunettes connectées
23:48donc les Méta Ray-Ban Display,
23:50c'est leur nom désormais,
23:52qui intègre un écran couleur
23:54capable d'afficher
23:55des messages,
23:56des notifications,
23:58des photos.
23:58Enfin voilà,
23:59c'est super.
23:59On peut le piloter désormais
24:01grâce à un bracelet.
24:03Donc à partir de gestes,
24:04on n'a plus besoin
24:05de sortir son smartphone.
24:07Selon Mark Zuckerberg,
24:09sa vision,
24:09c'est véritablement
24:10de dire
24:11c'est le futur,
24:12c'est la nouvelle plateforme numérique,
24:15ça va donc,
24:16ça peut se substituer,
24:17on imagine demain,
24:18au téléphone,
24:20aux montres connectées.
24:21Quel est votre avis ?
24:22Vous vous dites
24:22« Waouh,
24:22c'est vraiment ça l'avenir ? »
24:24Vous croyez à cette vision ?
24:27Merci.
24:27Alors, oui,
24:29à titre personnel,
24:30oui.
24:30Je suis un technophile
24:31et je comprends la vision
24:33de Mark Zuckerberg
24:34qui est une vision
24:35qui consiste à mélanger
24:36le réel et le virtuel.
24:38Et effectivement,
24:38Mark Zuckerberg considère
24:39que le smartphone
24:40qui se fait,
24:41qui se consomme
24:42à travers un écran
24:42qui par définition
24:44bloque en fait
24:44l'interaction
24:45entre deux personnes,
24:46c'est étymologiquement
24:47le principe d'un écran,
24:48considère qu'on doit avoir
24:49des objets
24:51qui permettent
24:51une communication fluide
24:52en fait.
24:53Et ils misent beaucoup
24:54effectivement sur
24:55les lunettes et les casques.
24:57Je dis « Waouh ! »
24:59Mais l'aspect temporel
25:00est important.
25:01Je pense qu'on est
25:02encore un petit peu tôt
25:03dans l'adoption
25:03de ce type d'usage.
25:05Ce qui a été présenté,
25:06c'est effectivement
25:06l'apparition
25:07du métadisplay
25:09qui a deux nouveautés.
25:13Afficher des choses
25:13sur un écran,
25:15un verre,
25:16des vidéos,
25:18des images,
25:18en couleur sur un verre.
25:20Et puis une autre,
25:21innovation qui est
25:22très importante
25:23qui est le bracelet,
25:24le fameux
25:24Neural With Brand
25:25qui permet
25:26avec une technologie
25:27à base
25:28d'électromyographie,
25:30c'est un petit peu compliqué,
25:31qui permet d'interpréter
25:32les signaux électriques
25:33du poignet
25:33et donc qui permet
25:34de piloter
25:35avec la main gauche
25:36par exemple,
25:37avec les gestes
25:37de la main,
25:38qui permet de piloter
25:39le device.
25:40Ça effectivement,
25:41ils souhaitent rentrer
25:41dans un nouveau paradigme
25:42et le paradigme
25:43d'une IHM renouvelée
25:44qui ne soit plus
25:45clavier, souris, écran,
25:46que ce soit...
25:47Interface homme-machine.
25:48Voilà, exactement.
25:49Ok.
25:50Jean-Christophe ?
25:51Ça me paraît
25:52une évolution ergonomique.
25:55Je ne vois pas encore
25:56la révolution des usages
25:57et on anticipe déjà,
26:00mais c'est sans doute
26:00la déformation professionnelle,
26:02effectivement,
26:03la dérive en termes d'usage,
26:04c'est-à-dire comment
26:05cette nouvelle interface
26:06peut permettre,
26:07alors le cas classique,
26:09de commettre des abus
26:10ou d'aller plus loin
26:11dans la violation
26:11de la vie privée
26:12des personnes
26:13en filmant à leur insu.
26:15Donc, évidemment,
26:15quand on filme,
26:16il y a une petite lumière
26:17qui s'allume
26:17mais on peut aussi l'occulter.
26:19Donc, je vois,
26:20j'encliffe déjà
26:21les dérives possibles,
26:23mais sur le fond,
26:24pour l'instant,
26:25oui, ok,
26:26technologiquement,
26:26c'est une vraie
26:27nouvelle dimension,
26:29mais sur un plan
26:29d'ergonomie,
26:30on regarde un téléphone,
26:31on regarde la personne
26:31à travers un écran,
26:32le regard est quand même
26:33troublé de toute manière.
26:35Donc, je ne vois pas encore
26:36l'impact, je dirais,
26:37la révolution sociétale
26:38derrière,
26:39regarder son téléphone.
26:40En plus,
26:40l'avantage,
26:41c'est qu'on voit
26:41la personne sortir
26:42son téléphone,
26:43donc on se dit,
26:43ok, là,
26:43ne m'écoute plus,
26:44alors que lorsqu'elle consulte
26:46sur son écran
26:47dans la lunette,
26:49on ne sait pas.
26:49ça aussi,
26:50parce qu'on verra bien
26:50que le regard
26:50a un monstre clou.
26:53Donc, ça va bouger
26:55au même résultat.
26:56Ça va transformer
26:56quand même nos relations
26:57sociales,
26:58c'est évident.
26:58Alain, le disrupteur,
27:00il trouve ça génial,
27:00forcément, non ?
27:01Moi, je dis que c'est
27:01évident de la part
27:03de plateformes.
27:03Leur objectif, c'est quoi ?
27:04C'est d'augmenter
27:05leur audience.
27:06Point.
27:06On peut imaginer
27:07tous les technos du monde,
27:09leur objectif premier,
27:10ce n'est pas
27:10de révolutionner les usages.
27:11Le premier,
27:12c'est d'augmenter
27:13le taux d'addiction,
27:14d'adhérence,
27:14de fidélité
27:15à leur plateforme.
27:16Et ça, c'est très embêtant.
27:18Que Ray-Ban
27:18le fasse tout seul,
27:19très bien.
27:19Que Meta le fasse
27:20avec Ray-Ban,
27:21ça me pose un peu
27:21plus de questions.
27:22Donc, il y a un premier sujet
27:23qui est, il ne faut pas
27:24se tromper,
27:24c'est d'abord du business.
27:25Après, il y a effectivement
27:26plein de sujets
27:26de comment je fais
27:27pour loucher.
27:28Là, la vie privée,
27:29on est en d'un...
27:29Et mon deuxième sujet,
27:31et mon deuxième sujet,
27:33c'est que non seulement
27:34c'est in,
27:34mais c'est out.
27:35C'est-à-dire que Meta
27:36sera ce que chacun regarde.
27:38Allez, ce sera
27:39ce que chacun écoute.
27:45Merci à tous de nous avoir suivis.
27:47Merci à mes invités,
27:48Jean-Christophe Le Toquin
27:49de Stisa,
27:50Alain Staron,
27:50d'Artifil,
27:51et nos syndocs
27:52de MC2i.
27:54À très vite
27:54sur Bispart.
Écris le tout premier commentaire