- il y a 2 semaines
OpenAI réagit aux accusations liant ChatGPT à des cas de détresse chez les mineurs, en déployant des outils de supervision et d’alerte pour les parents. Une avancée controversée, qui interroge sur la responsabilité des plateformes et l’efficacité réelle de ces garde-fous face aux risques psychologiques.
Catégorie
🗞
NewsTranscription
00:00C'est parti pour le grand débrief de la tech. Aujourd'hui, autour de la table, nous avons des personnes qui sont venues à vélo, en trottinette, qui ont bravé la grève.
00:13Merci beaucoup à tous les trois. Jean-Christophe Le Toquin, cofondateur de Stisa, réseau mondial de lutte contre la violence sexuelle par l'image.
00:21Merci beaucoup d'avoir fait tout ce chemin jusqu'au studio de Smartech. Alain Staron, merci aussi. Fondateur et PDG d'Artifil, je le répète, notre disrupteur préféré.
00:32Merci Alain également de nous avoir rejoint. Et Nosyndoc, qui est nouveau dans l'exercice du débrief. Enchanté, bienvenue.
00:39Merci aussi d'avoir fait tout ce trajet. Vous êtes directeur du pôle Data, IA et Cyber du cabinet de conseil MC2I.
00:46Alors, de quoi allons-nous débattre aujourd'hui ? On va parler de l'annonce de l'arrivée d'un contrôle parental dans ChatGPT.
00:54Tout ça annoncé dans le cadre d'un suicide d'un adolescent. Est-ce que vous pensez que c'est rassurant comme prise de décision de la part d'OpenAI ?
01:02Ou alors que c'est vraiment la fausse bonne idée ? J'entendrai vos points de vue tout à l'heure.
01:07On va parler aussi des nouvelles lunettes de méta et de ces innovations pour chacun aussi donner son avis.
01:14Est-ce que vous vous dites, waouh, c'est vraiment génial tout ce secteur de la tech.
01:18On est en train de vivre un moment important parce qu'il y a vraiment de nouveaux appareils qui vont nous connecter au réseau.
01:24Ou alors, ça vous fait peur ?
01:26Mais on commence avec un tout autre sujet, puisque la commission d'enquête parlementaire sur les effets psychologiques de TikTok sur les mineurs,
01:34présidée par le député Arthur Delaporte, a rendu ses conclusions début septembre.
01:38Et nous sommes connectés avec sa rapporteuse, Madame la députée, Ensemble pour la République de la Marne, Laure Miller.
01:46Bonjour.
01:48Bonjour.
01:49Merci aussi de nous rejoindre à distance.
01:52On a vu déjà beaucoup de commentaires autour de vos travaux et des résultats de l'enquête de la commission.
02:00TikTok présentait comme finalement le pire du pire.
02:03Est-ce que c'est ça, vraiment, selon vous, le pire des réseaux sociaux aujourd'hui, TikTok, pour les mineurs ?
02:10Alors, c'est en effet le sentiment qu'on avait lorsqu'on a, en tout cas moi, lorsque j'ai proposé la création de cette commission d'enquête,
02:17donc au début de l'année, parce qu'on voit bien que c'est en tout cas celui qui est à la fois, qui attire le plus la jeunesse aujourd'hui.
02:26On voit bien l'explosion de l'usage de TikTok depuis finalement le Covid, donc juste après sa création jusqu'à aujourd'hui.
02:33On voit bien que ça va de façon crescendo et que par ailleurs, c'est celui qui est le plus redoutable, on va dire, en termes d'addiction,
02:40mais aussi en termes de mauvaise modération.
02:44En tout cas, c'est ce qu'on a pu percevoir à travers les travaux qu'on a effectués pendant les 4-5 derniers mois.
02:49Et c'est la raison pour laquelle, en effet, on a choisi de pointer du doigt TikTok, tout en disant bien, dans un second temps,
02:54qu'en réalité, ce qu'on voit, c'est que les autres réseaux sociaux tentent à copier TikTok,
02:58puisqu'il est extrêmement addictif et extrêmement redoutable, et que donc les préconisations qu'on formule à l'issue de ces travaux
03:06portent finalement sur l'ensemble des réseaux sociaux, s'agissant en tout cas de notre jeunesse.
03:10Oui, c'était ma question. Est-ce que vos recommandations peuvent vraiment s'appliquer à tous les réseaux sociaux ?
03:15Est-ce qu'il y a des spécificités notables chez TikTok ?
03:18Est-ce que la question aussi d'un réseau social piloté par la Chine pose un problème, selon vous, spécifique pour le public le plus jeune ?
03:31Alors oui, pour répondre à vos questions, en effet, TikTok, ce qu'on a mis en évidence,
03:35c'est deux éléments qui nous semblent faire partie intégrante de sa stratégie,
03:39et qui sont, comme je le disais, copiés par les autres.
03:41Le premier, c'est le design qui est extrêmement addictif. Finalement, TikTok, ce sont les premiers à avoir conçu cette idée de vidéo
03:47qui défile de façon infinie, en mode plein écran sur nos téléphones,
03:51et qui en effet nous conduisent à rester très très longtemps, parce que c'est un peu comme le phénomène des machines à sous.
03:56Comme vous ne savez pas quelle est la vidéo qui va suivre, vous avez envie de rester,
04:00et finalement vous partez pour 15 minutes, et puis vous restez finalement deux heures.
04:04En tout cas, c'est ce qui se produit chez nos jeunes.
04:06Et le deuxième élément redoutable chez eux, c'est l'algorithme qui est très singulier,
04:09qu'on ne connaît d'ailleurs pas très bien, puisqu'il y a beaucoup de secrets autour de leur algorithme,
04:13mais qui est un algorithme très enfermant, qui arrive à capter toutes les 4-5 secondes
04:18des éléments supplémentaires sur nous, sur ce qu'on est, sur ce qu'on a envie de voir,
04:24et qui fait qu'en tout cas chez les très jeunes, il y a un côté très enfermant,
04:28qui va parfois jusqu'au pire, puisque les contenus sont beaucoup de contenus trash,
04:34de contenus radicaux, et c'est ce qui enferme.
04:36Et pour répondre à votre dernière question, en effet, et ça pour le coup,
04:39c'est un travail qui avait été fait par les sénateurs,
04:41qui avaient aussi fait l'année dernière une commission d'enquête,
04:45mais qui était vraiment ciblée sur la question des ingérences étrangères.
04:48Et en effet, on peut quand même se poser la question,
04:51ils ont, eux, un TikTok qui s'appelle Douyin chez eux,
04:54qui est extrêmement limité, extrêmement contrôlé vis-à-vis de leur jeunesse,
04:57puisqu'il y a des contenus éducatifs, puisqu'il s'éteint à 22h le soir
05:02pour laisser les enfants dormir, notamment.
05:04Et chez nous, ils nous envoient un TikTok qui est complètement débridé.
05:08Jean-Christophe, je voulais vous faire réagir sur la partie contenu dangereux,
05:11parce que lors de l'enquête, on a été mis en avant, par exemple,
05:13des contenus incitant à l'auto-mutilation chez les jeunes.
05:19Est-ce qu'il vous semble aussi que c'est le pire du pire TikTok aujourd'hui,
05:22sur la diffusion de contenus dangereux, délétères pour la jeunesse ?
05:27Effectivement, comme ils sont très populaires auprès des jeunes, forcément,
05:30donc tout ce qu'ils font, étant les premiers, les leaders, ils veulent le garder,
05:34forcément, ce qui va pouvoir dériver va se retrouver sur TikTok.
05:39Mais comme l'a dit Madame la députée, les autres n'ont qu'une pensée,
05:44c'est arriver à retrouver la même efficacité, je dirais, commerciale, je dirais, traditionnelle,
05:49et qui va donc, effectivement, pouvoir arriver aux mêmes dérives.
05:52Et donc, c'est extrêmement important d'avoir une vision globale,
05:56et viser et transformer TikTok en bouc émissaire, c'est leur rhétorique,
06:03c'est comme ça qu'ils le vivent, en fait, n'est pas le plus efficace.
06:07Ça a été une enquête houleuse, en plus, Alain, réagir.
06:12Oui, en fait, effectivement, TikTok est en tête,
06:15effectivement, les autres veulent le copier,
06:16et donc le meilleur moyen d'éviter la copie, c'est d'arrêter TikTok.
06:20Sinon, la dérive va continuer à l'infini.
06:21Oui, c'est-à-dire que ça sert de leçon aux autres, c'est ça ?
06:25Non, mais si on voit que c'est un danger,
06:27et même si on suppose, sans en être sûrs, que c'est un danger,
06:29qu'est-ce qu'on va attendre qu'il y ait beaucoup plus de suicides
06:31pour dire, ah oui, vraiment, il faut l'arrêter ?
06:33Mais au moins, il y a un principe de précaution qui devrait s'appliquer aussi.
06:36J'entends déjà donc un « pour l'interdiction de TikTok ».
06:39C'est moi.
06:39Au moins de 15 ans ?
06:40Au moins de 15 ans.
06:41Au moins de 15 ans.
06:42Et le truc que je trouve vachement bien dans le rapport,
06:44c'est d'écrire un…
06:45Non, c'est pour l'autre sujet, ce n'est pas pour celui-là.
06:49Avant de faire ce petit tour de table sur « pour contre »,
06:52je voulais revenir sur l'enquête quand même,
06:53qui a été, je disais, assez houleuse,
06:55avec des influenceurs plutôt rétifs, pour être gentil.
06:59En tout cas, c'était des influenceurs aussi qui étaient sur la sellette,
07:02donc ils arrivaient en position défensive.
07:04Est-ce que vous avez le sentiment,
07:07parce qu'on en a vu certains « claquer la porte »,
07:09enfin en tout cas se déconnecter pendant leur audition,
07:12est-ce qu'ils vous sentent quand même qu'il y a un début de prise de conscience
07:16de l'impact qu'ils peuvent avoir auprès de leur public, leur milleure ?
07:20Alors, je ne sais pas si j'irais jusque-là.
07:22Oui, ils étaient en effet très lucides sur…
07:25Tous ont dit, d'ailleurs, qu'ils préconisaient d'interdire l'application,
07:30donc d'interdire TikTok aux plus jeunes,
07:32parce que tous ont bien conscience et nous expliquaient
07:35que finalement ce sont les contenus, comme je le disais,
07:37qui sont les plus problématiques,
07:39qui sont les plus payants, les plus rémunérateurs,
07:42que la plateforme pousse,
07:43et donc eux l'ont très bien compris,
07:45et l'appliquent à leur propre façon de faire sur TikTok en particulier.
07:48Donc ils savent que c'est des vidéos sur lesquelles
07:50il faut les premières secondes attirer les gens,
07:54et donc comment est-ce qu'on attire ?
07:55On attire en allant vers le trash,
07:57en allant vers quelque chose de très radical pour que les gens restent.
08:00Donc ils étaient très lucides,
08:01mais finalement c'est juste les profiteurs d'un système
08:04qui existe à travers la logique TikTok et la stratégie TikTok.
08:07Donc l'idée n'était pas de les blâmer particulièrement
08:10ou de faire de moraliser cette commission d'enquête.
08:13C'était simplement, moi je trouve, l'intérêt,
08:15comme en plus on en a beaucoup entendu parler,
08:16de montrer aussi aux parents,
08:18voilà, en fait, ces influenceurs-là, ces TikTokers,
08:21et bien c'est ce que regardent vos enfants,
08:23parce qu'en fait tous les parents connaissent TikTok,
08:25mais est-ce que beaucoup de parents sont déjà allés sur l'application
08:28pour regarder les comptes les plus suivis par la jeunesse aujourd'hui ?
08:31Ça c'est moins sûr.
08:32Et donc c'était une manière de dire,
08:33vous voyez, ceux-là, ils sont suivis par des millions de jeunes
08:36dans notre pays et ailleurs,
08:38et voilà à quoi ça ressemble.
08:40Il y a une suite qui sera donnée sur les contenus qu'ils diffusent
08:44et qui sont parfois vraiment problématiques.
08:47Il y a déjà des suites qui ont été données,
08:49vous savez, alors je ne veux pas faire de la publicité,
08:51mais par exemple Adé Laurent,
08:53qui diffuse des contenus à caractère très sexuel
08:56et avec une vision de la femme extrêmement contestable.
08:59Et lui a été masculiniste, et il y en avait d'autres.
09:03Lui, par exemple, a été banni de la plateforme.
09:05Seulement, est-ce que c'est vraiment le rôle,
09:07soit d'un parlementaire, soit d'une ministre,
09:09de devoir faire le tri dans une masse de contenus problématiques
09:13et d'interpeller TikTok pour qu'il daigne retirer de la plateforme
09:17des contenus problématiques ?
09:19Je ne crois pas.
09:19Donc ça montre justement qu'il y a un vrai problème structurel
09:23et que TikTok ne fait pas l'effort
09:26et n'a pas une modération satisfaisante
09:28dans les contenus qu'il diffuse
09:29et qu'il le fait sciemment
09:31parce qu'en fait, ce sont des contenus qui lui rapportent de l'argent.
09:34Nossine, qu'arrive votre avis sur cette affaire ?
09:38Faut-il ou non interdire ou limiter à certains contenus ?
09:43Je ne sais pas, ce réseau social TikTok au moins de 15 ans ?
09:46Je vais dire quelque chose qui est un petit peu contre-nature pour moi
09:48parce que je suis un professionnel du numérique
09:50et un passionné du numérique.
09:51Je vais dire oui par le principe de précaution
09:53que j'ai déjà entendu.
09:55Oui, et chez moi, il n'est pas autorisé par mes enfants.
09:5915 ans, ça vous semble le bon âge ?
10:01Il y a un débat là-dessus parce qu'évidemment,
10:04est-ce que c'est 15 ans, est-ce que c'est 16 ans, est-ce que c'est 17 ans ?
10:06En tout cas, factuellement, aujourd'hui,
10:08la majorité numérique en France est de 15 ans.
10:11Donc, c'est un bon repère.
10:12Officiellement, mais alors, ce n'est pas vraiment mis en œuvre ?
10:14Oui, c'est le problème aujourd'hui.
10:15Effectivement, le contrôle de l'âge aujourd'hui,
10:17les technologies existent,
10:18mais elles sont au bon vouloir des personnes qui veulent les déployer
10:21et ce n'est pas correctement déployé.
10:24Je dirais, sur un principe de précaution,
10:25non, il faut l'interdire,
10:26mais je dirais que ce n'est pas suffisant.
10:27Il y a toutes les propositions qu'a faites Madame la députée
10:30qui sont la sensibilisation,
10:33le fait d'en parler, ça c'est très important
10:35parce qu'il faut que les parents et les jeunes comprennent l'impact.
10:37C'est pour moi un travail de fond.
10:40Mais effectivement, à très court terme,
10:42c'est un produit qui peut être nocif.
10:44Jean-Christophe, pour ou contre l'interdiction de TikTok aux moins de 15 ans ?
10:49Nous, on n'a pas de...
10:50Je pense qu'il est surtout pour collecter l'information.
10:53Je pense que ce qui est important
10:54et ce qui est presque abordé dans le rapport,
10:57mais pas tout à fait,
10:58c'est essentiel d'arriver à faire cette remontée de terrain
11:02qui a été faite par la Commission
11:03venant des associations, des signes de confiance, des experts.
11:07Et aujourd'hui, je crois qu'on ne comprend pas assez
11:09l'importance de que cette information de terrain
11:12remonte vers les autorités
11:14et vers le politique français, en fait,
11:17pour qu'on sache dire.
11:18Parce qu'en fait, les plateformes,
11:20elles sont noyées par l'information,
11:22par leur propre information.
11:23Et la manière d'avoir de l'impact sur elles,
11:26c'est de leur remettre sous le nez
11:28les informations qu'elles trouvent.
11:29Et ce rapport est hyper utile pour ça
11:31et va rester, je pense, pour TikTok.
11:33Et ils vont mettre du temps à le digérer,
11:34mais ils vont le digérer.
11:36C'est qu'elles mettent sous leur nez
11:37ce qu'ils ne veulent pas forcément voir
11:38parce qu'il y a des priorités de business,
11:41de concurrence, etc.
11:43Faire les obligés à traiter chaque cas, finalement.
11:46Oui, et puis de construire un système
11:49où on va pouvoir comprendre le terrain,
11:51ce que voient les parents et les enfants,
11:53et d'amener cette réalité devant la collectivité.
11:57TikTok a une société sœur en Chine
12:02qui ne fait pas ça du tout.
12:04Je pense au contraire.
12:05Il faut qu'on arrête d'être naïf.
12:06Ils sont particulièrement lucides.
12:07C'est de la soft power.
12:08Ils sont là pour nous dézinguer.
12:09Et ils le font.
12:11Ou bien ils nous remettent les contenus chinois
12:13que j'ai vus qui sont géniaux.
12:15C'est une façon de mettre la pression.
12:15En disant, nous voilà, il y a ça, ça, ça qui nous vaut se complaire.
12:18On coupe à 22 heures, on coupe à 22 heures TikTok.
12:21Ça, c'est facile, c'est pour tout le monde.
12:22On cherche à mettre en place des contrôles d'âge.
12:25On sait bien que ce n'est pas forcément facile.
12:27Et effectivement, on peut aussi travailler sur les contenus.
12:28Mais qui copie le TikTok chinois ?
12:30Je trouve vachement bien, moi.
12:31Ça, c'est une politique.
12:33C'est justement une politique occidentale
12:35de faire ce que font les autres gouvernements.
12:38C'est une question éminemment politique.
12:40Il y a un autre chemin qui a été choisi par les États-Unis.
12:43C'est-à-dire, finalement, on prend un contrôle
12:45encore plus important sur cette plateforme,
12:48à la fois sur les données qui sont collectées, utilisées,
12:51mais aussi même sur l'algorithme.
12:53Maintenant, on sera vraiment piloté par les Américains
12:55et non plus par la Chine.
12:59Finalement, moi, je voulais vous faire réagir là-dessus,
13:01Madame Milaf, c'est que en proposant une interdiction
13:06de TikTok au moins de 400 hectares,
13:07on fait reporter la responsabilité sur les parents
13:10qui ne contrôlent pas suffisamment ce que font leurs enfants.
13:13On empêche des utilisateurs de 15 ans
13:15qui ont quand même peut-être envie de pouvoir se connecter
13:16aux réseaux sociaux avec leurs amis.
13:18Mais en revanche, quelle pression on met sur cette plateforme TikTok ?
13:22Est-ce qu'on ne manque pas un petit peu de volonté,
13:24justement, vraiment politique,
13:26de s'attaquer directement aux plateformes ?
13:29Je pense qu'on peut et on doit, d'ailleurs,
13:32sur ce sujet, mener plusieurs combats de front.
13:34C'est-à-dire, le fait d'interdire demain la plateforme
13:38pour les moins de 15 ans
13:39et toutes les plateformes de réseaux sociaux
13:41pour les moins de 15 ans,
13:43c'est, comme plusieurs l'ont dit sur le plateau,
13:44un principe de précaution et de protection de notre jeunesse.
13:49C'est-à-dire, on sait qu'à court terme,
13:50ça nous permet d'éviter qu'il y ait d'autres drames
13:53et d'éviter que nos jeunes soient, encore une fois,
13:55biberonnés à des contenus qui sont, pour beaucoup,
13:58nocifs et qui ne leur font pas du bien.
13:59En revanche, ça ne doit pas nous exonérer,
14:03vous avez raison, d'un combat à plus large échelle,
14:05mais qui prend un petit peu plus de temps,
14:07il faut bien le dire, à l'échelle de l'Union européenne,
14:09qui est, en effet, d'imposer un pluralisme algorithmique
14:12qui est, évidemment, essentiel, on le voit bien,
14:14de reprendre la main, en effet,
14:16pas forcément sur ces plateformes,
14:18mais de nous créer aussi des plateformes,
14:20des réseaux sociaux éthiques,
14:21qui seraient d'origine occidentale,
14:24d'origine de l'Union européenne.
14:26On pourrait interdire, mais pour l'infini,
14:28Madame la députée, par exemple,
14:29on pourrait décider que c'est une pratique
14:31que l'on ne tolère pas sur les réseaux sociaux.
14:33On pourrait décider aussi de prendre le contrôle,
14:36nous aussi, sur ces algorithmes,
14:38ou en tout cas, d'exiger une véritable transparence.
14:40Il y a des choses à faire, aussi.
14:41Oui, il y a des choses, techniquement, bien sûr,
14:43mais je dirais que le sujet est compliqué.
14:45Et comme tout combat compliqué,
14:46il se gagne sur plusieurs fronts, en fait.
14:49Et je voudrais revenir sur un front
14:50qui a été cité dans le rapport
14:51et qui a été un petit peu dévoilé,
14:53c'est aussi sur la responsabilisation de tous les acteurs,
14:55et la responsabilisation des parents.
14:57On ne peut pas toujours reporter la faute aux parents.
15:00Il y a la responsabilité des plateformes,
15:01on en a beaucoup parlé,
15:02mais je pointe aussi la responsabilité
15:04des producteurs de contenu.
15:05Si moi, demain, j'incite au suicide,
15:09je suis pénalisé.
15:10Il faut que les producteurs de contenu
15:12qui font des contenus qui sont jugés illicites
15:14soient pénalisés.
15:15Aujourd'hui, il y a une zone quasiment de non-droit
15:19et en tout cas, on ne se sent pas concerné
15:21et on ne se sent pas inquiété
15:22quand on fait des choses qui sont un peu bordures
15:23parce que ça nous rapporte de l'argent.
15:25Donc, je pense qu'il faut responsabiliser
15:27tous les acteurs de la chaîne,
15:28du producteur jusqu'au consommateur.
15:30En tout cas, on peut vous féliciter pour ce travail,
15:32cette commission d'enquête,
15:33Laurent Miller.
15:34Merci beaucoup d'avoir été avec nous.
15:36Je rappelle que vous êtes députés de la Marne,
15:38ensemble pour La République.
15:40Merci encore.
15:41Nous, on continue à parler
15:43de la protection des mineurs
15:45puisqu'il y a eu cette annonce
15:46d'arrivée, de lancement d'un contrôle parental
15:49dans le chat GPT.
15:50OpenAI a pris cette décision
15:53à la suite d'une affaire dramatique,
15:56un suicide d'un jeune de 16 ans aux États-Unis,
15:59dont les parents accusent le chat GPT
16:00de l'avoir encouragé dans sa dépression
16:04et jusqu'à l'acte fatal.
16:07Alors, ce contrôle parental
16:08dans le chatbot mis en place
16:10par l'IA générative d'OpenAI,
16:12et ça vous semble être une bonne idée
16:14ou vraiment une fausse bonne idée.
16:17Qui veut donner son avis en premier ?
16:20Allez, Alain.
16:22Sur le principe, moi, j'adhère,
16:24mais j'ai une confiance peut-être exagérée
16:26dans les capacités des algos.
16:28Le principe, c'est quoi ?
16:28Le principe, c'est d'arriver à comprendre
16:30à travers les échanges
16:31quel est l'âge mental,
16:33pas un civil,
16:33l'âge mental de l'interlocuteur.
16:35La deuxième chose,
16:36c'est être capable de détecter
16:38des dérives de dépression,
16:41voire pire.
16:41Moi, je trouve que ce principe,
16:43c'est une bonne idée.
16:44Il y aura comme toujours des erreurs,
16:47il y aura des faux positifs,
16:48il y aura des faux négatifs,
16:48donc il faut se préparer à ça.
16:50Mais enfin, on vient d'une situation
16:51où il n'y a rien.
16:52Donc, c'est de toute façon pas idiot.
16:53Voilà.
16:54Et l'autre chose que je trouve bien,
16:56et je ne sais pas si c'est vraiment faisable,
16:57c'est comme il faut s'assurer
16:58d'avoir un compte sur le GPT,
17:00si on est mineur,
17:01qu'il y ait un compte parent.
17:02C'est ça.
17:03Ça permet de renforcer.
17:04On dit tous,
17:05les parents doivent se responsabiliser,
17:06et bien là,
17:07se responsabiliser, pardon,
17:08là, ils donnent un outil.
17:09Je trouve ça bien.
17:11Jean-Christophe.
17:12Toute évolution qui vise
17:14à améliorer la sécurité
17:16et l'intégrer dans les services
17:19est forcément une bonne chose en soi.
17:21Quand on regarde le monde automobile,
17:23la science de sécurité en France,
17:24c'est 1973,
17:26c'est 80 ans, 90 ans
17:27après la création de la voiture.
17:28Donc là, à la GPT,
17:29on est à un, deux ans,
17:31quelques années,
17:31déjà, il commence à mettre des dispositifs,
17:33et ça va devenir vraiment
17:34une, je dirais,
17:36une attente forte des citoyens.
17:38Donc ça, c'est super.
17:38C'était un sujet, d'ailleurs,
17:39du côté des fournisseurs d'accès,
17:41ça a pris un petit peu de temps
17:42à se mettre en place,
17:43le contrôle parental,
17:44c'est devenu maintenant
17:44la ceinture de sécurité basique.
17:48Pour autant,
17:48ça ne nous a pas protégés
17:49de tous les dangers.
17:51Non, après,
17:51rien n'est parfait.
17:52Donc, ça serait intéressant,
17:53effectivement,
17:54de voir comment ils l'installent.
17:55Là, c'est toujours la question
17:56pour l'Europe
17:57qui n'a ni la puissance
17:58technologique américaine,
18:00ni la puissance politique chinoise.
18:01On a, nous, une force
18:05qui est comme un cadre,
18:07je dirais,
18:07droit de l'homme,
18:08droit humain,
18:09un droit qui est intéressant.
18:11Mais pour que ça ait de la valeur,
18:13il faut qu'on puisse remonter
18:14de l'info chez nous.
18:16C'est-à-dire que toute politique
18:16qui dise à dire
18:17on va pousser les acteurs technos
18:19à se responsabiliser tout seul,
18:21ça veut dire qu'on reste aveugle
18:22sur ce que voient nos citoyens,
18:25nos parents.
18:25Donc, pour l'Europe,
18:26c'est essentiel
18:27qu'on développe le réflexe
18:29qui n'est pas là aujourd'hui,
18:30de dire
18:31qu'il faut qu'on ait
18:32une remontée de terrain
18:33extrêmement proche,
18:34qu'on sache
18:34ce qui se passe chez nous
18:36avant de pousser
18:37nos citoyens,
18:38nos parents,
18:39nos enfants
18:39à aller parler
18:40à Tchadzpt,
18:41à TikTok,
18:42etc.
18:42Parce que si on est aveugle,
18:44on ne peut pas comprendre
18:45où on va.
18:45On pourrait aussi leur dire
18:46d'aller sur Mistral.
18:48Aussi.
18:50Interroger le chat.
18:51C'est ça.
18:52Nous aussi.
18:53Votre avis sur le contrôle parental ?
18:55Moi, mon avis,
18:55c'est qu'avant le contrôle parental,
18:57je souhaiterais déjà
18:58un mode enfant.
18:59C'est-à-dire un mode
19:00où quand les enfants
19:01l'utilisent,
19:02déjà,
19:02il y a une sécurité
19:03sans contrôle parental.
19:05Ça,
19:05ce n'est pas difficile à faire.
19:07Technologiquement,
19:07c'est très simple à faire.
19:08La question est,
19:09est-ce que c'est rentable ?
19:11Si simple à faire,
19:12d'ailleurs.
19:13C'est très simple.
19:14Je fais la question
19:14dans les interviews de l'IA.
19:15Vous filtrez,
19:16en fait,
19:16le contenu.
19:18Le prof de ces outils,
19:19c'est de sélectionner
19:19la bonne information.
19:20Il suffit de rentrer
19:21dans les algorithmes
19:22le fait de filtrer
19:23des informations
19:23qui ne soient pas,
19:25on va dire,
19:26accessibles à des mineurs.
19:27Et ça,
19:28il suffit de définir
19:28ce qu'on entend par là.
19:29Il va être très limité.
19:30Est-ce que les jeunes
19:31vont avoir envie de l'utiliser
19:32parce que finalement,
19:33très vite,
19:33il va dire
19:33ça, je ne peux pas en parler.
19:34Les jeunes,
19:35ils veulent toujours du trash.
19:36Donc, ça ne va pas.
19:37Il faut arrêter
19:37s'ils n'en ont pas envie.
19:39En fait,
19:39ils l'utilisent
19:39comme un confident.
19:40Ce n'est pas forcément trash.
19:42Voilà,
19:43si l'adolescent
19:45ne peut plus parler
19:45de sa détresse,
19:46il ne va plus aller
19:47vers l'atipity.
19:48Un mode enfant,
19:49ça ne veut pas dire
19:50forcément interner
19:51les contenus.
19:52Ça veut dire
19:52les présenter
19:53d'une certaine manière
19:53qui soit acceptable
19:55et adapté
19:55pour son public.
19:57Je dirais que là,
19:58on parle de contrôle parental.
19:59Moi, je préfère le terme
20:00plutôt d'accompagnement parental
20:01parce que le principe
20:02d'un contrôle parental,
20:04c'est la première chose
20:05à laquelle on pense
20:06c'est le blocage en fait.
20:07Or,
20:08ce genre d'outil
20:08est très important
20:09quand même
20:09pour le développement
20:10et l'appropriation
20:11du numérique.
20:12Et donc,
20:13moi,
20:13je préfère plutôt
20:14des outils
20:15qui permettent
20:15effectivement
20:15d'avoir des comptes famille
20:17qui permettent
20:18de créer une forme
20:19de lien
20:19entre les parents
20:20et les enfants
20:20qui permettent aux parents
20:21d'accompagner
20:22dans, on va dire,
20:23l'utilisation correcte
20:24de ce genre d'outils.
20:25Mais bon,
20:25est-ce qu'un ado
20:26de 14-15 ans
20:27va continuer à se confier
20:29sur ce qu'il pense
20:30ou sa colère
20:30vis-à-vis de ses parents
20:31parce que parfois
20:32c'est ça,
20:33il m'énerve,
20:34mon père,
20:34et ma mère,
20:36n'en parlons pas.
20:38S'il sait que justement
20:39il partage son compte
20:39avec ses parents,
20:40est-ce que ça a un sens
20:41véritablement pour eux ?
20:42Moi,
20:43je m'interroge
20:43sur le sens,
20:44l'utilité
20:45de ce contrôle parental
20:46dans un chatbot
20:47qui est utilisé
20:48par les jeunes
20:48visiblement
20:49pour se confier,
20:50trouver comment
20:51je vais les séduire
20:52machine,
20:53voilà,
20:54tout ce qui nous passe
20:56par la tête
20:56quand on est adolescent,
20:57on n'a pas envie
20:57de le partager
20:58avec ses parents.
20:59Donc on arrête
21:00d'utiliser
21:00ChatGPT
21:01s'il y a un contrôle parental.
21:02Non,
21:02je ne pense pas,
21:02je pense que dans le numérique
21:03vous pouvez faire
21:03beaucoup de choses,
21:04l'imagination est très forte
21:06et la technologie est là,
21:07vous pouvez imaginer
21:07beaucoup de choses,
21:08on peut très bien
21:08trouver des mécanismes
21:10de contrôle sans partager
21:11par exemple l'historique
21:12et la vie privée,
21:13sans que le jeune sente
21:14que sa vie privée
21:16soit ouverte
21:17y compris à ses parents,
21:18il y a plein de mécanismes
21:18possibles,
21:19c'est une question de volonté,
21:20c'est une question de conception,
21:21tout à fait possible,
21:22on fait des choses
21:23très importantes
21:24et très intéressantes
21:25quand il y a du business,
21:26là il faut le faire aussi
21:27sur un angle
21:28qui est différent,
21:28qui est l'angle des valeurs
21:29en fait.
21:30Jacques Estaf,
21:31est-ce qu'il y a
21:31d'autres solutions
21:32qui pourraient être
21:33mises en œuvre ?
21:33Parce qu'il y a effectivement
21:34pour moi,
21:35il y a un problème
21:35de responsabilité
21:36de la part de Penaya
21:37et mais plus seulement,
21:39de mettre entre toutes les mains
21:40finalement,
21:41des technologies hyper puissantes
21:43dont on ne sait plus
21:45tellement comment on peut
21:46avoir le contrôle dessus.
21:48Aujourd'hui,
21:48on est dans une société
21:49qui privilégie,
21:50je dirais,
21:51l'innovation,
21:52on lance les produits
21:53et puis après,
21:54les produits sont
21:54parfois à l'insu
21:55de leurs créateurs
21:56détournés par l'utilisateur.
21:57Donc ça,
21:58c'est une...
21:59On fait ça avec la voiture,
22:00on revient...
22:01Donc ça, c'est...
22:01On n'autorise pas
22:02les voitures autonomes
22:03à rouler n'importe comment,
22:05n'importe où.
22:06Oui.
22:06On met des limites.
22:08Et là,
22:08on n'a pas promis
22:09dans le monde réel,
22:09on a peut-être
22:10au monde virtuel,
22:11on a moins le réflexe
22:12de comprendre
22:13la dangerosité de ça.
22:14Et ça pose la question
22:15et c'est souligné
22:16par le rapport
22:17de Mme Mier
22:18sur l'importance
22:19de, justement,
22:21de comprendre
22:22l'environnement
22:23dans lequel on travaille.
22:25Et si...
22:26Et on est dans cette logique
22:27de liberté
22:28et ça n'a pas changé.
22:30À partir de là,
22:31et effectivement,
22:31les parents,
22:32les enfants
22:32ne vont pas
22:33parler à leurs parents.
22:34Donc quel est
22:35le tissu,
22:36je dirais,
22:36éducatif
22:37et collectif
22:38qu'on met en place
22:39près du terrain
22:39et on est dans
22:40un terrain politique ?
22:41Il faut aller...
22:42Il faut, je pense,
22:43moins se focaliser
22:44sur les gens
22:45qui sont hors
22:45de notre portée
22:46et plutôt mailler
22:47le terrain
22:48et se focaliser là-dessus
22:49où là,
22:49on a un contrôle.
22:50Et on a peut-être
22:51trop...
22:51On est peut-être
22:52trop ébloui
22:52collectivement
22:53par les TikTok
22:54et les grands acteurs
22:55alors qu'en fait,
22:56notre champ d'action
22:57à nous,
22:58il est...
22:58On a la matière
22:59en fait.
22:59On a la matière
23:00et on la laisse partir
23:01dans notre contrôle.
23:03Et puis peut-être
23:04qu'il faut imposer
23:04aussi dans ces outils
23:05des messages
23:06pour faire de la pédagogie
23:07de l'éducation numérique.
23:09Comment fonctionne
23:10ce chatbot ?
23:11Quelles sont ses limites ?
23:12Quelles sont ses compétences
23:14et ses incompétences ?
23:15Et ça,
23:16on devrait imposer
23:16ces messages d'alerte
23:17systématiquement.
23:18On n'a plus beaucoup de temps.
23:18Il en reste 4 minutes
23:19pour notre dernier sujet.
23:21Je voulais vous faire réagir
23:22sur l'innovation présentée
23:24dans les nouvelles lunettes
23:25par Méta,
23:26lunettes connectées,
23:27donc les Méta,
23:29Ray-Ban,
23:29Display,
23:30c'est leur nom désormais,
23:32qui intègrent un écran
23:33couleur capable
23:34d'afficher
23:34des messages,
23:36des notifications,
23:36des photos,
23:38enfin voilà,
23:38c'est super.
23:39On peut le piloter
23:40désormais grâce à un bracelet,
23:42donc à partir de gestes,
23:44on n'a plus besoin
23:44de sortir son smartphone.
23:46Selon Mark Zuckerberg,
23:48sa vision,
23:49c'est véritablement de dire
23:50c'est le futur,
23:52c'est la nouvelle
23:53plateforme numérique,
23:55ça va donc,
23:55ça peut se substituer,
23:56on imagine demain,
23:58au téléphone,
23:59aux montres connectées.
24:00Quel est votre avis ?
24:01Vous vous dites
24:01waouh,
24:02c'est vraiment ça l'avenir,
24:03vous croyez à cette vision ?
24:05Vous aussi ?
24:07Alors,
24:08oui,
24:09à titre personnel,
24:09oui,
24:10je suis un technophile
24:11et je comprends la vision
24:13de Mark Zuckerberg,
24:14qui est une vision
24:14qui consiste à mélanger
24:16le réel et le virtuel,
24:18et effectivement,
24:18Mark Zuckerberg considère
24:19que le smartphone
24:20qui se fait,
24:21qui se consomme
24:21à travers un écran,
24:22qui par définition,
24:24bloque en fait
24:24l'interaction entre deux personnes,
24:25c'est étymologiquement
24:26le principe d'un écran,
24:28considère qu'on doit avoir
24:29des objets
24:30qui permettent
24:31une communication fluide,
24:32et ils misent beaucoup
24:33effectivement sur
24:34les lunettes
24:35et les casques.
24:36Je dis waouh,
24:38mais l'aspect temporel
24:40est important,
24:41je pense qu'on est
24:41encore un petit peu tôt
24:42dans l'adoption
24:43de ce type d'usage.
24:44Ce qui a été présenté,
24:45c'est effectivement
24:46l'apparition
24:47du Meta Display
24:48qui a deux nouveautés,
24:52afficher des choses
24:53sur un écran,
24:54un verre,
24:55des vidéos,
24:57des images,
24:58en couleur sur un verre,
24:59et puis une autre innovation
25:01qui est très importante
25:02qui est le bracelet,
25:03le fameux Neural with Blend
25:04qui permet avec une technologie
25:06à base d'électromyographie,
25:09c'est un petit peu compliqué,
25:11qui permet d'interpréter
25:11les signaux électriques
25:12du poignet
25:13et donc qui permet
25:14de piloter avec la main gauche
25:16par exemple,
25:16avec les gestes de la main,
25:18qui permet de piloter
25:19le device.
25:19Ça effectivement,
25:20il souhaite rentrer
25:21dans un nouveau paradigme,
25:22le paradigme en fait
25:23d'une IHM renouvelée,
25:24qui ne soit plus clavier,
25:25souris, écran,
25:26que ce soit...
25:26Interface homme-machine.
25:27Voilà, exactement.
25:28Ok.
25:29Jean-Christophe ?
25:31Ça me paraît
25:32une évolution ergonomique.
25:34Je ne vois pas encore
25:35la révolution des usages
25:37et on anticipe déjà,
25:39mais c'est sans doute
25:40la déformation professionnelle,
25:41effectivement la dérive
25:43en termes d'usage,
25:44c'est-à-dire comment
25:44cette nouvelle interface
25:46peut permettre,
25:47alors le cas classique,
25:48de commettre des abus
25:50ou d'aller plus loin
25:50dans la violation
25:51de la vie privée des personnes
25:52en filmant à leur insu.
25:54Donc effectivement,
25:55quand on filme,
25:56il y a une petite lumière
25:57qui s'allume
25:57mais on peut aussi l'occulter.
25:59Donc j'anticipe déjà
26:01les dérives possibles
26:03mais sur le fond,
26:04pour l'instant,
26:05oui, ok,
26:05technologiquement,
26:06c'est une vraie nouvelle dimension
26:08mais sur un plan d'ergonomie,
26:10on regarde un téléphone,
26:10on regarde la personne
26:11à travers un écran,
26:12le regard est quand même
26:13troublé de toute manière.
26:14Donc je ne vois pas encore
26:15l'impact, je dirais,
26:16la révolution sociétale
26:17derrière regarder son téléphone.
26:19En plus,
26:20l'avantage,
26:20c'est qu'on voit
26:21la personne sortir son téléphone
26:22donc on se dit
26:22ok, là,
26:23ne m'écoute plus
26:24alors que lorsqu'elle consulte
26:26sur son écran
26:26dans la lunette,
26:28mais ça se verra aussi
26:29parce qu'on verra bien
26:30que le regard a un moment
26:30c'est flou.
26:33Donc ça va bouger
26:35au même résultat.
26:35Ça va transformer
26:36quand même nos relations sociales,
26:37ça, c'est évident.
26:38Ah non,
26:38le disrupteur,
26:39il trouve ça génial,
26:40forcément, non ?
26:40Moi, je dis que c'est
26:41évident de la part de plateformes.
26:43Leur objectif,
26:44c'est quoi ?
26:44C'est d'augmenter leur audience.
26:45Point.
26:46Donc on peut imaginer
26:47toutes les technos du monde,
26:49leur objectif premier,
26:50ce n'est pas de révolutionner
26:50les usages.
26:51Le premier,
26:51c'est d'augmenter
26:52le taux d'addiction,
26:53d'adhérence,
26:54de fidélité
26:55à leur plateforme.
26:56Et ça,
26:56c'est très embêtant.
26:57Que Ray-Ban
26:57le fasse tout seul,
26:58très bien,
26:59que Meta le fasse
26:59avec Ray-Ban,
27:00ça nous pose
27:01un peu plus de questions.
27:02Donc il y a un premier sujet
27:02qu'il ne faut pas se tromper,
27:04c'est d'abord du business.
27:05Après,
27:05il y a effectivement
27:05plein de sujets
27:06de comment je fais
27:07pour loucher.
27:08La vie privée,
27:08on abandonne.
27:09Et mon deuxième sujet,
27:11c'est que non seulement
27:13c'est in,
27:14mais c'est out.
27:15C'est-à-dire que
27:15Meta sera
27:16ce que chacun regarde.
27:18Ce sera
27:19le dernier mot
27:21de ce débrief
27:22qui était en direct
27:23sur la chaîne Bismarck.
27:24Merci à tous
27:25de nous avoir suivis.
27:26Merci à mes invités,
27:27Jean-Christophe Le Toquin
27:28de Stisa
27:29à l'Instaron
27:30d'Artifil
27:30et Nosyndoc
27:32de MC2i.
27:33A très vite
27:34sur Bismarck.
27:35de Henry
27:36de C Förster
27:45à l'Inst84
27:46de M.
27:47Christophe Le Toquin
27:48de M.
Recommandations
0:52
|
À suivre
1:29
0:55
17:23
16:41
2:36
16:32
27:37
5:01
28:47
6:06
2:15:15
53:03
8:20
1:08:04
40:27
11:53
Écris le tout premier commentaire