Passer au playerPasser au contenu principal
  • il y a 19 heures
Future of Social Ads - 13 novembre 2025
Quand l'IA redéfinit le marketing social et ses métiers

Cyrille Franck (Groupe INfluencia)
Clément Rouget (Pour l'Éco)
Etienne Millien (APEM)

Un événement produit par Minted.

Catégorie

🤖
Technologie
Transcription
00:00Bonjour à toutes et à tous, vous m'entendez ?
00:09Ça marche ? Ouais, ça marche bien.
00:11Merci à vous d'être présents.
00:13Merci beaucoup à mes deux compagnons de gauche.
00:17Clément Rouget, journaliste pour l'écho, donc du groupe Les Echos,
00:22et formateur aussi en IA.
00:24Et puis Etienne Milien, tu es directeur de l'APEM.
00:28Est-ce que tu peux nous dire ce que c'est que l'APEM ?
00:29Bonjour à tous, c'est une association qui vide les salles très très vite apparemment.
00:34C'est une association qui a été créée par tous les éditeurs de presse,
00:37presse quotidienne, presse magazine, presse numérique,
00:39donc c'est un millier de marques presse représentées.
00:42Et on travaille sur les questions de l'éducation de médias,
00:44dans la formation des journalistes, mais aussi beaucoup de lobbying
00:48et développement d'outils.
00:51Merci Etienne, merci à vous d'être là.
00:54Le thème n'est pas facile, les contenus, les fake news,
00:57les choses générées par l'IA, tout ce qui crée un peu de la confusion
01:00en termes d'information qui vient de compliquer nos vies de citoyens,
01:04mais aussi d'annonceurs ou de médias.
01:07Comment est-ce qu'en tant que journaliste,
01:09on peut trouver une manière de s'y retrouver là-dedans, Clément ?
01:13C'est un sujet extrêmement complexe, on peut en parler.
01:17Moi, je ne suis pas du tout un ludiste, je ne suis pas du tout anti-IA.
01:21Tu en as parlé, je suis formateur à la fois de professionnels dans les rédactions,
01:25mais aussi en école de journalisme, et donc sur le pari sur l'avenir des médias, en fait.
01:31Et il y a un point noir sur l'utilisation de l'IA et ses conséquences sociétales,
01:36c'est les fake news.
01:38On l'a vu très récemment avec ce qu'a fait Thibaut InShape,
01:43de vouloir donner son avatar à la plateforme Sora
01:47pour l'utiliser, pour faire un peu accompagner sa promo récemment.
01:53Et il s'est retrouvé tout de suite dans des situations
01:55où les internautes l'ont mis dans des situations de racisme,
02:00de grossophobie, tout ce qu'on veut.
02:01Et il a retiré, du coup, l'agrément très très vite, en 48 ou 72 heures.
02:07Et aujourd'hui, on voit que des plateformes comme Sora 2
02:11sont par nature de la fake news.
02:14C'est des plateformes de fake news.
02:16Et donc, ça, c'est très inquiétant pour des journalistes.
02:21Par contre, je trouve qu'il y a un côté positif,
02:24c'est que comme il est impossible aujourd'hui
02:26de savoir si une image est vraie ou fausse,
02:29ou une vidéo est vraie ou fausse,
02:31et c'est suffisamment dramatique, ce que je viens de dire,
02:33c'est que ça renforce le côté marque.
02:36Au sens où, si on voit un contenu, le monde,
02:39si on voit un contenu, le parisien,
02:41on ne fait plus confiance à l'image en tant que telle,
02:44on fait confiance au fait que la marque ait vérifié cette information.
02:47Encore faut-il que le média ait choisi
02:49de ne pas utiliser ce type de visuel,
02:51et pourtant, on les voit se répandre un peu partout.
02:53Alors, pas chez tous les médias, bien sûr,
02:55il y a des chartes qui se sont développées,
02:58mais justement, quelles seraient les limites
03:01quand on est un média pour éviter cette confusion, justement ?
03:04Je vous pose la question à vous deux.
03:06Nous, par exemple, on utilise l'IA
03:07pour générer des images sur les réseaux sociaux,
03:11mais avec une limite très claire,
03:12on ne le fait que sur du dessin.
03:14On ne fait pas de photographie,
03:16et donc on ne va pas faire, je ne sais pas,
03:18Steve Jobs en colère, façon photoréalisme.
03:21Ce n'est pas le genre de prompt qu'on va rentrer
03:23dans Midjournée ou des outils d'IA génératifs.
03:26Et on sait que des médias le font,
03:29et d'ailleurs, ils ont été retoqués sur ça
03:30par le Conseil national de déontologie journalistique,
03:34en disant qu'il ne faut pas participer à cette confusion
03:36sur le vrai et le faux.
03:38Donc je trouve que ne pas générer de photoréalisme,
03:40c'est une ligne rouge qui ne devrait pas être dépassée
03:43dans aucun média.
03:43Il y a beaucoup de rédactions qui ont mis en place
03:46des chartes d'utilisation de l'IA.
03:49Ça, c'est des exemples extrêmement précis,
03:51et tu as entièrement raison.
03:52Ce n'est pas une photo d'IA,
03:53c'est juste une photo super vieille de moi,
03:55je suis désolé.
03:58Effectivement, le jeu entre le vrai et le faux,
04:01il est très compliqué,
04:03et ce que tu viens de dire est, à mon avis,
04:05la clé de cette conversation.
04:07Et pour vous, moi, je suis journaliste,
04:09depuis très longtemps, je venais à Publicis
04:10interviewer votre PDG du temps de Maurice Lévy
04:14pour Bloomberg,
04:15et je vois que le temps a beaucoup passé.
04:17Quand j'entendais Paris Social, tout à l'heure,
04:18je me disais, tiens, c'est vachement de gauche,
04:20Publicis, on parle de social.
04:21Non, je n'avais pas compris que c'était social ads, en fait.
04:23Donc je viens d'une autre génération,
04:24une génération où la pub et la rédaction ne se parlaient pas.
04:27C'était séparé, vraiment.
04:31Je réponds à la question,
04:33c'était séparé,
04:34et ça n'est plus parce qu'on se retrouve
04:35autour de la question de vérité
04:36et la valeur emportée par l'information.
04:39Et c'est là où c'est intéressant.
04:41On a parlé tout à l'heure de contenu.
04:43Tout est confondu.
04:44Le contenu, c'est le plus petit commun dénominateur.
04:48Il n'y a pas de valeur.
04:49On met tout, propagande, publicité,
04:50information dedans, tout se vaut.
04:52Or non, tout ne se vaut pas.
04:54Vous avez entendu,
04:55tous ceux qui sont passés avant
04:56expliquaient qu'il y a une valeur attachée
04:58soit à une marque,
04:59soit à un contenu spécifique
05:00parce qu'il porte quelque chose.
05:02Et celui d'information se rend compte
05:03par défaut,
05:05parce qu'il y a ces fausses nouvelles,
05:06parce que Meta encore fait 16 milliards
05:08de chiffre d'affaires
05:09avec des contenus frauduleux
05:10et qu'on en plus arrête
05:12ces activités de fact-checking,
05:16que finalement,
05:18il y avait peut-être une valeur
05:18qu'on n'est pas allé chercher
05:19ou qu'on n'a pas défendue.
05:21Et qu'on n'a pas défendu
05:22en tant qu'annonceur,
05:24qu'on n'a pas défendu peut-être
05:25en tant que produit à vendre
05:26pour un annonceur
05:27et qu'on n'a pas su toujours défendre
05:28pour une rédaction.
05:29– Et alors, toi,
05:31en tant que directeur de l'APEM,
05:34comment tu agis
05:36pour justement éviter cette confusion ?
05:39C'est quoi dans l'éducation aux médias ?
05:41C'est quoi concrètement ?
05:42– Concrètement, c'est prendre la tête
05:43à la vice-présidente du Sénat
05:44hier soir pendant une heure.
05:47C'est former des gens
05:49de Reworld Media dans la matinée
05:51sur des outils d'éducation aux médias
05:52que l'on a développés
05:53pour faire des séances
05:54de débats d'actualité
05:56pour montrer aux gens
05:57à quoi ça sert de s'informer, par exemple.
05:59Mais c'est surtout, aujourd'hui,
06:02enfoncer le clou sur cette notion
06:03de valeur ajoutée de l'information,
06:05de tout ce qu'elle emporte,
06:07ce que tu viens d'évoquer.
06:08Voilà.
06:09Il y a les questions de...
06:11Je pense que vous connaissez GTI,
06:12c'est-à-dire des...
06:15– Non, je ne suis pas sûr
06:15que tout le monde connaisse le GTI, non.
06:16– Bon, c'est un crédit donné
06:19à certaines marques de presse
06:21parce qu'elles respectent
06:22des critères particuliers.
06:24– C'est une certification,
06:25le Journalism Trust Initiative
06:27qui permet effectivement
06:28de valoriser les contenus
06:30produits par les marques
06:31qui sont certifiées
06:32par ce label.
06:33– Donc, ces initiatives-là,
06:36à défendre ou pas,
06:37d'ailleurs,
06:37parce qu'elles ne sont pas normées
06:39au-delà de GTI elle-même,
06:43voilà,
06:43et la régulation des médias,
06:45elle demande beaucoup de liberté.
06:47Donc, les efforts,
06:48ils sont plutôt dans le sens
06:50d'une acculturation
06:51à ce qu'est l'information,
06:53véritablement à l'information
06:54au sens journalistique,
06:55pas l'information pour faire
06:56un exposé sur le château de la Loire,
06:58ce n'est pas ça.
06:59L'information journalistique
07:00au sens de l'actualité.
07:01Acculturation à tous les niveaux.
07:04Moi, je viens de la télé,
07:06puis de la presse écrite.
07:08Je parle beaucoup
07:09avec des journalistes
07:09et je parle très, très peu
07:10avec des gens de la pub,
07:12par exemple.
07:13Or, aujourd'hui,
07:14le plus grand groupe
07:15de presse quotidienne
07:16en taille et bras,
07:19sa patronne et ma vice-présidente,
07:20c'est 10% de chiffre d'affaires
07:22sur le numérique.
07:23Donc, c'est encore 90%
07:24sur le papier.
07:25Donc, des équipes
07:25qui ne réfléchissent pas
07:27que sur le numérique,
07:28qui réfléchissent encore
07:29avec des anciens codes
07:30qu'il faut acculturer
07:32à ces notions-là.
07:33Donc, le chantier,
07:34il est là.
07:36OK.
07:36Et toi, merci.
07:37Merci beaucoup, Étienne.
07:39Clément, toi,
07:40par rapport à ta vision
07:41de tes professeurs,
07:42tu donnes des cours
07:43en école de journalisme.
07:45Quelle vision tu as
07:46de l'usage
07:47par ces jeunes générations
07:48de l'IA
07:48en tant que journaliste ?
07:50Ce qui est très intéressant,
07:51c'est que c'est une évolution
07:52d'année en année.
07:54On sait tous,
07:55on parle surtout ici
07:57d'intelligence artificielle générative.
07:59Donc, pas la question
08:00des algorithmes,
08:01de Facebook,
08:01tout ça,
08:02c'est beaucoup plus vieux.
08:03Mais vraiment,
08:03sur l'intelligence artificielle
08:04générative,
08:05donc, ça sort
08:06mi-2022,
08:08les premiers trucs
08:09de génération d'images,
08:10puis de chat GPT
08:11le 30 novembre 2022.
08:13Et mes premiers cours
08:14en 2023,
08:16il y a une forme de choc
08:17et il n'y a pas encore
08:18d'acculturation
08:18avec des promos
08:20qui n'ont pas connu
08:22l'enseignement supérieur
08:23avec ces outils-là,
08:25qui ne l'ont pas intégré
08:26dans leur entrée à l'école
08:27et dans leur projet de carrière
08:28parce que ça n'existait pas.
08:29Et donc,
08:31il y avait une grande phase
08:32de découverte.
08:33Aujourd'hui,
08:34en 2025,
08:35quand on arrive devant les classes,
08:38à peu près tous les élèves
08:39ont déjà testé,
08:41utilisé plus ou moins largement
08:43dans leurs études supérieures
08:44et connaissent les principaux outils
08:46qui peuvent être utilisés
08:47d'une façon éthique
08:49dans le journalisme.
08:50Je donne un nom comme ça,
08:51Notebook, par exemple.
08:52J'arrivais en formation
08:53il y a trois ans,
08:55personne ne connaissait Notebook.
08:56Aujourd'hui,
08:5790% des étudiants connaissent.
08:59Ceci dit,
09:01il y a une énorme méfiance
09:02parce que quand on veut
09:04être journaliste,
09:05quand on a ce projet-là,
09:07c'est au nom
09:08d'un certain nombre de valeurs,
09:10la défense de la vérité,
09:11la rigueur, etc.
09:13Et quand on commence
09:14un cours sur l'IA
09:15et qu'on dit
09:16ces outils,
09:18par nature,
09:19sont probabilistes
09:19et peuvent générer du faux,
09:21ce qu'on appelle
09:21les hallucinations,
09:23forcément,
09:24ça jette un froid
09:24dans la salle.
09:25Et quand je dis
09:25techniquement,
09:27ça diminue un petit peu
09:28avec les derniers modèles,
09:29mais globalement,
09:30on ne sait pas le résoudre,
09:31ça jette encore un froid.
09:33Et c'est là où je leur dis
09:33qu'on va apprendre
09:34à l'utiliser malgré tout,
09:36en dépit d'eux,
09:37mais ça reste un outil
09:38qu'éthiquement,
09:41ils ont du mal à appréhender.
09:42Et justement,
09:43on renforce de plus en plus
09:44cet aspect éthique
09:46dans la formation
09:47sur à quel moment
09:48ça peut être judicieux
09:49de l'utiliser
09:50et à quel moment
09:51il ne faut surtout pas l'utiliser.
09:53On parlait de la génération
09:53d'images photoréalistes
09:55tout à l'heure,
09:56mais les outils
09:57sont tellement performants
09:58aujourd'hui
09:58qu'on peut se cloner
10:00ou cloner des voix
10:01et ne plus avoir
10:02à tourner de vidéo.
10:03On peut se dire
10:04ouais, génial.
10:05Et en même temps,
10:06ça pose quand même
10:06des problèmes.
10:07Si vous avez un journaliste
10:08du Monde
10:09ou d'une autre marque
10:10et vous dites
10:10attendez,
10:12est-ce qu'il a vraiment
10:12tourné cette vidéo ou pas ?
10:14Voilà,
10:14c'est des questions éthiques
10:15que les différents groupes
10:17de presse,
10:17d'ailleurs,
10:18n'y répondent pas
10:18de la même façon.
10:19On est dans des zones grises
10:20immenses.
10:21Oui, tout à fait.
10:21Et puis,
10:22on n'y répond pas non plus
10:23de la même façon
10:23selon les pays.
10:24Il y a un certain nombre
10:25de pays en Amérique du Sud
10:26où c'est très pratiqué,
10:26en fait,
10:27les clones,
10:27les avatars.
10:29Alors,
10:29pour préciser,
10:30c'est des avatars
10:30de vraies personnes
10:31qui se sont clonés
10:32pour pouvoir ensuite,
10:34avec un prompt,
10:34avec un texte,
10:35être présent
10:36et faire preuve
10:37d'ubiquité.
10:38Donc,
10:38c'est assez incroyable.
10:39Ça ne pose pas de problème,
10:40par exemple,
10:40semble-t-il,
10:41dans des pays
10:42d'Amérique du Sud.
10:42Ça pose,
10:43en tout cas,
10:44il n'y a pas de chute
10:45brutale
10:46ni de dénonciation publique
10:47des gens
10:48qui le pratiquent.
10:49Mais peut-être
10:50qu'en France,
10:50effectivement,
10:51c'est un peu différent.
10:51Qu'est-ce que tu en penses,
10:52toi, Etienne ?
10:53Ça dépend ce qu'on cherche,
10:54si c'est le volume
10:55ou si c'est la qualité.
10:57Quand je donnais des cours
10:58de journalisme économique,
10:59je m'amusais
10:59avec les étudiants.
11:00Alors,
11:01filer les résultats trimestriels
11:02de Heinz,
11:03un gros groupe américain,
11:05vous me faites une brève
11:06pour demain.
11:07Ah,
11:08250 pages
11:09en cinq links,
11:10ce n'est pas possible.
11:10Mais si,
11:10vous allez y arriver.
11:11Aujourd'hui,
11:12je fais ça,
11:12je me fais rétamer
11:12parce qu'ils le font
11:13en deux minutes,
11:14ils utilisent Anthropique
11:15et c'est fait.
11:16Mais ils vont tous
11:17me sortir le truc identique.
11:19Lorsque l'entreprise Siemens,
11:21je vous donne
11:21des vieux exemples,
11:22l'entreprise Siemens
11:22qui a perdu de l'argent
11:23pendant longtemps
11:24revient aux bénéfices,
11:26on avait le choix
11:27de l'écrire
11:27en disant
11:28Siemens renoue
11:29avec les bénéfices
11:29ou 10 000 emplois plus tard,
11:31Siemens renoue
11:31avec les bénéfices.
11:32Ce n'est pas pareil.
11:33On raconte une histoire.
11:34Il y a un angle,
11:35il y a une qualité,
11:35il y a un rapport éditorial.
11:38Aujourd'hui,
11:39puisque les plateformes
11:40déréférencent
11:41les médias d'information
11:43pour capter
11:44notamment
11:44la recette publicitaire
11:46en partie
11:46et contourner
11:47les questions
11:48de droits voisins,
11:50on s'aperçoit
11:51pour les titres
11:51de l'alliance de la presse
11:52et de la presse quotidienne
11:53qu'il y a
11:54de plus en plus de gens
11:55qui, via Facebook,
11:56retournent vers
11:57des titres de presse.
11:58Donc,
11:59il y a une recherche
12:00de qualité
12:01qui correspond,
12:01je pense,
12:02à ce que tu disais,
12:02à l'identification
12:03de la marque
12:04et produire du journalisme
12:06qui a la qualité,
12:07qui apporte quelque chose,
12:09je reviens à ma notion
12:09de valeur,
12:10mais qui a une richesse,
12:12ça le fait sortir
12:13un petit peu
12:13du bruit ambiant
12:14ou du volume ambiant
12:15en utilisant l'IA
12:17ou autre chose.
12:18Moi,
12:19je suis tellement vieux
12:19que j'ai vu arriver
12:20Internet dans une rédaction.
12:21Un mec qui est arrivé,
12:22il a branché un ordinateur
12:23et là,
12:23on voit c'est Internet.
12:24Bon,
12:25là,
12:25c'est autre chose,
12:25ça va beaucoup plus vite,
12:26c'est beaucoup plus massif,
12:27mais c'est une évolution.
12:29Elle est là,
12:29il faut faire avec.
12:30Je peux rebondir
12:31sur Facebook ?
12:31Oui, bien sûr.
12:32Facebook en formation
12:34l'an dernier,
12:35tu as vu mes slides
12:36puisqu'on travaillait ensemble,
12:38on parlait des boomer traps.
12:40Est-ce que vous savez
12:41tous ce que c'est ?
12:42C'est le fait
12:43d'avoir des images
12:44créées par IA
12:45de plus ou moins
12:46bonne qualité
12:47qui avaient pour but
12:48de générer de l'empathie
12:50et derrière,
12:52de plus ou moins
12:53être utilisées
12:53par des escrocs,
12:54etc.,
12:55pour repérer
12:56les personnes
12:56les plus crédibles
12:57qu'on retrouve sur Facebook
12:58et malheureusement,
13:00il y en a beaucoup
13:00et avec des engagements.
13:03On parlait tout à l'heure
13:03d'engagement,
13:04de partage de commentaires
13:05extrêmement importants
13:06parce que c'est bien fait.
13:08Les plus connus,
13:09c'est mon petit-fils
13:11a fait ce grand cheval
13:12en carotte,
13:13mais personne ne le félicite,
13:14etc.
13:14Et je montrais ça
13:16aux étudiants en journalisme
13:18et j'expliquais le concept
13:19et ils me disaient
13:20« Ah ben non,
13:21nous, ça va,
13:22on n'est pas des boomers. »
13:24Sauf qu'en fait,
13:25c'était il y a six mois
13:26ou un an,
13:27maintenant c'est terminé.
13:29Et tous,
13:29à un moment donné,
13:30ont été confrontés
13:31peut-être au choc
13:33presque anthropologique,
13:35mais d'arriver face
13:36à des vidéos
13:37et ne pas savoir
13:37si c'est de l'IA ou pas.
13:38Le grand exemple
13:39sur lequel a été interrogé
13:41Salomon Altman cet été,
13:42c'est « Les lapins sur un trampoline
13:44filmé de nuit. »
13:45Je ne sais pas si vous avez
13:45cette vidéo
13:46où les gens se sont dit
13:47« Ah ben en fait,
13:48ok, ça c'est de l'IA,
13:50ça, ça peut faire ça. »
13:52Et il y a eu aussi
13:53plein d'autres cas comme ça,
13:56un kangourou dans un avion,
13:58etc.
13:59Et ça,
14:00ça pose de vraies questions
14:01parce que récemment,
14:02il y a une fac américaine
14:04qui a fait un test,
14:05qui a mis quatre étudiants
14:06et qui leur a dit
14:07« Ces vidéos sont-elles générées
14:09par l'IA ou pas ? »
14:11Et franchement,
14:11on parle d'étudiants
14:13de la Ivy League
14:14qui connaissent bien
14:16les réseaux,
14:16les plateformes et tout.
14:18Et à chaque fois,
14:18ils se plantaient.
14:18Enfin,
14:19ils se plantaient une fois sur deux.
14:20Donc en fait,
14:21statistiquement,
14:21ils se plantaient.
14:22Ils n'étaient pas supérieurs
14:24au hasard.
14:26Et à chaque fois,
14:27avec des réflexions
14:27ultra intéressantes
14:28du genre
14:29« Des zèbres qui courent
14:31dans la rue
14:31ne peuvent pas courir
14:32aussi parfaitement,
14:33c'est de l'IA. »
14:34Non, en fait,
14:35ce n'était pas de l'IA,
14:35c'était vraiment des zèbres
14:36qui couraient dans la rue.
14:37Et comme la viralité
14:38sur les réseaux sociaux
14:39est créée en particulier
14:41par ce qui sort
14:42de l'ordinaire
14:43et l'extraordinaire,
14:44ça donne une prime
14:45incroyable
14:46à l'IA
14:47et à l'extraordinaire.
14:48Et donc là,
14:49on va avoir
14:49un vrai problème
14:50où tout ce qui va être
14:51très viral,
14:53on va devoir
14:53se poser la question.
14:55Et ça va créer
14:56un problème
14:56avec un mot
14:57qu'on a appris
14:57durant le Covid
14:58qui est le faux positif.
15:00En mode,
15:00quelque chose va être vrai,
15:02mais on va quand même
15:03en douter.
15:03Et là,
15:04c'est une autre dimension.
15:04On touche à la dimension
15:06cohésion sociale
15:07qui explose
15:08puisqu'on doute
15:09de tout.
15:09C'est le doute
15:12généralisé.
15:14Dernier mot,
15:14peut-être,
15:15tu poses quelque part
15:17la question aussi
15:17de sa position
15:18soit en tant que
15:20consommateur
15:20de contenu,
15:21de sa responsabilité.
15:23Comment est-ce
15:23qu'on acquiert
15:25la compréhension
15:27de ses propres biais
15:28et comment est-ce
15:28qu'on forme
15:29les gens à ça,
15:30Étienne ?
15:30En tant que
15:33consommateur
15:34d'actualité
15:35ou d'information,
15:36vous passez
15:37à un moment donné
15:37à l'école,
15:37après vous travaillez.
15:39Je pense que
15:39tout le monde sait
15:40que Kate Middleton
15:41a eu un cancer.
15:41Pourtant,
15:42on n'est pas tous fans
15:42de la famille royale
15:44d'Angleterre.
15:46On est donc
15:47d'une manière
15:48ou d'une autre
15:48nourris d'actualité.
15:51L'école fait son travail,
15:52elle vous apprend un petit peu.
15:53On parle des fausses nouvelles.
15:54Moi, je déteste
15:54le terme de fausses nouvelles
15:55parce qu'il y a
15:56de la propagande,
15:56de la pub,
15:57de l'information.
15:58C'est un faux concept.
16:00On ne définit pas
16:01si je vous montre
16:04une poire et une pomme,
16:05je ne vous dis pas
16:05ça c'est une pomme,
16:06ça c'est une fausse pomme.
16:07C'est une poire et une pomme.
16:08C'est deux trucs différents.
16:08Vous qui êtes la publicité,
16:11vous avez des codes,
16:11des règles,
16:12des principes,
16:13des modes de fonctionnement
16:13propres.
16:14Ce n'est pas les mêmes
16:14que ceux de la propagande,
16:15ce n'est pas les mêmes
16:16que ceux de l'information.
16:19Donc, il faut aider les gens
16:20à y voir un peu plus clair.
16:23Ça se passe par l'école ?
16:24Ça se passe en partie
16:25par l'école,
16:25ça se passe en partie
16:26par les enseignants,
16:27ça se passe par la famille.
16:28Il n'y a rien de plus absurde
16:29que de dire qu'on arrête
16:30d'apprendre
16:31lorsqu'on a passé son bac
16:33ou on sort de la fac.
16:35On a tous évolué
16:36intellectuellement
16:38à un moment donné,
16:39c'est normal.
16:40Moi, j'ai un sport favori,
16:42c'est d'aller regarder
16:42les commentaires
16:43sous les articles
16:44dans les sites de PQR
16:45pour apprendre un peu
16:46comment pensent les gens
16:46parce que je n'ai pas
16:48la sensation de savoir.
16:49Amusez-vous à le faire.
16:50Allez de Rugby Rama
16:51à West France
16:53ou au Telegram
16:54et lisez un peu
16:54comment la France réagit
16:56à ce qui se passe.
16:57On apprend beaucoup de choses.
17:00Donc, c'est tout au long
17:01de la vie, bien sûr.
17:03Ce n'est pas politique,
17:04mais c'est un choix
17:04et c'est vraiment
17:05un choix de société aujourd'hui.
17:06C'est pour ça que j'ai pris la tête
17:07à la vice-présidente du Siena
17:08hier soir.
17:10C'est un choix culturel,
17:11véritablement.
17:12Et je pense vraiment
17:13à l'heure de la virilité
17:14où tout se mélange
17:15que les endroits comme ici
17:18ont un rôle hyper important
17:19à jouer
17:20parce que économiquement,
17:22ça a un sens
17:22avec vos clients
17:23et socialement,
17:25ça a un vrai sens
17:25en tant qu'intermédiaire,
17:28les agences comme les médias.
17:30Je vais donner un petit tips
17:31rapide.
17:32Il y a le média
17:33d'investigation Next
17:34qui a fait une sorte
17:36de décodeur
17:37à site IA
17:38entièrement automatisé.
17:39Donc, il suffit juste
17:40de l'installer
17:40sur son navigateur
17:41et on sait
17:42si on est sur une plateforme
17:43où il n'y a aucune vérification.
17:45De fait, du coup,
17:46entièrement généré par IA
17:47ou pas.
17:48C'est tout bête,
17:48mais ça peut changer
17:49une navigation web.
17:50Merci beaucoup à vous deux
17:51et encore bravo
17:53pour votre travail
17:54d'éducation aux médias
17:55et de formation des étudiants.
17:56Merci beaucoup.
17:57Applaudissements
17:58Sous-titrage Société Radio-Canada
Écris le tout premier commentaire
Ajoute ton commentaire

Recommandations