- il y a 19 heures
Future of Social Ads - 13 novembre 2025
Quand l'IA redéfinit le marketing social et ses métiers
Cyrille Franck (Groupe INfluencia)
Clément Rouget (Pour l'Éco)
Etienne Millien (APEM)
Un événement produit par Minted.
Quand l'IA redéfinit le marketing social et ses métiers
Cyrille Franck (Groupe INfluencia)
Clément Rouget (Pour l'Éco)
Etienne Millien (APEM)
Un événement produit par Minted.
Catégorie
🤖
TechnologieTranscription
00:00Bonjour à toutes et à tous, vous m'entendez ?
00:09Ça marche ? Ouais, ça marche bien.
00:11Merci à vous d'être présents.
00:13Merci beaucoup à mes deux compagnons de gauche.
00:17Clément Rouget, journaliste pour l'écho, donc du groupe Les Echos,
00:22et formateur aussi en IA.
00:24Et puis Etienne Milien, tu es directeur de l'APEM.
00:28Est-ce que tu peux nous dire ce que c'est que l'APEM ?
00:29Bonjour à tous, c'est une association qui vide les salles très très vite apparemment.
00:34C'est une association qui a été créée par tous les éditeurs de presse,
00:37presse quotidienne, presse magazine, presse numérique,
00:39donc c'est un millier de marques presse représentées.
00:42Et on travaille sur les questions de l'éducation de médias,
00:44dans la formation des journalistes, mais aussi beaucoup de lobbying
00:48et développement d'outils.
00:51Merci Etienne, merci à vous d'être là.
00:54Le thème n'est pas facile, les contenus, les fake news,
00:57les choses générées par l'IA, tout ce qui crée un peu de la confusion
01:00en termes d'information qui vient de compliquer nos vies de citoyens,
01:04mais aussi d'annonceurs ou de médias.
01:07Comment est-ce qu'en tant que journaliste,
01:09on peut trouver une manière de s'y retrouver là-dedans, Clément ?
01:13C'est un sujet extrêmement complexe, on peut en parler.
01:17Moi, je ne suis pas du tout un ludiste, je ne suis pas du tout anti-IA.
01:21Tu en as parlé, je suis formateur à la fois de professionnels dans les rédactions,
01:25mais aussi en école de journalisme, et donc sur le pari sur l'avenir des médias, en fait.
01:31Et il y a un point noir sur l'utilisation de l'IA et ses conséquences sociétales,
01:36c'est les fake news.
01:38On l'a vu très récemment avec ce qu'a fait Thibaut InShape,
01:43de vouloir donner son avatar à la plateforme Sora
01:47pour l'utiliser, pour faire un peu accompagner sa promo récemment.
01:53Et il s'est retrouvé tout de suite dans des situations
01:55où les internautes l'ont mis dans des situations de racisme,
02:00de grossophobie, tout ce qu'on veut.
02:01Et il a retiré, du coup, l'agrément très très vite, en 48 ou 72 heures.
02:07Et aujourd'hui, on voit que des plateformes comme Sora 2
02:11sont par nature de la fake news.
02:14C'est des plateformes de fake news.
02:16Et donc, ça, c'est très inquiétant pour des journalistes.
02:21Par contre, je trouve qu'il y a un côté positif,
02:24c'est que comme il est impossible aujourd'hui
02:26de savoir si une image est vraie ou fausse,
02:29ou une vidéo est vraie ou fausse,
02:31et c'est suffisamment dramatique, ce que je viens de dire,
02:33c'est que ça renforce le côté marque.
02:36Au sens où, si on voit un contenu, le monde,
02:39si on voit un contenu, le parisien,
02:41on ne fait plus confiance à l'image en tant que telle,
02:44on fait confiance au fait que la marque ait vérifié cette information.
02:47Encore faut-il que le média ait choisi
02:49de ne pas utiliser ce type de visuel,
02:51et pourtant, on les voit se répandre un peu partout.
02:53Alors, pas chez tous les médias, bien sûr,
02:55il y a des chartes qui se sont développées,
02:58mais justement, quelles seraient les limites
03:01quand on est un média pour éviter cette confusion, justement ?
03:04Je vous pose la question à vous deux.
03:06Nous, par exemple, on utilise l'IA
03:07pour générer des images sur les réseaux sociaux,
03:11mais avec une limite très claire,
03:12on ne le fait que sur du dessin.
03:14On ne fait pas de photographie,
03:16et donc on ne va pas faire, je ne sais pas,
03:18Steve Jobs en colère, façon photoréalisme.
03:21Ce n'est pas le genre de prompt qu'on va rentrer
03:23dans Midjournée ou des outils d'IA génératifs.
03:26Et on sait que des médias le font,
03:29et d'ailleurs, ils ont été retoqués sur ça
03:30par le Conseil national de déontologie journalistique,
03:34en disant qu'il ne faut pas participer à cette confusion
03:36sur le vrai et le faux.
03:38Donc je trouve que ne pas générer de photoréalisme,
03:40c'est une ligne rouge qui ne devrait pas être dépassée
03:43dans aucun média.
03:43Il y a beaucoup de rédactions qui ont mis en place
03:46des chartes d'utilisation de l'IA.
03:49Ça, c'est des exemples extrêmement précis,
03:51et tu as entièrement raison.
03:52Ce n'est pas une photo d'IA,
03:53c'est juste une photo super vieille de moi,
03:55je suis désolé.
03:58Effectivement, le jeu entre le vrai et le faux,
04:01il est très compliqué,
04:03et ce que tu viens de dire est, à mon avis,
04:05la clé de cette conversation.
04:07Et pour vous, moi, je suis journaliste,
04:09depuis très longtemps, je venais à Publicis
04:10interviewer votre PDG du temps de Maurice Lévy
04:14pour Bloomberg,
04:15et je vois que le temps a beaucoup passé.
04:17Quand j'entendais Paris Social, tout à l'heure,
04:18je me disais, tiens, c'est vachement de gauche,
04:20Publicis, on parle de social.
04:21Non, je n'avais pas compris que c'était social ads, en fait.
04:23Donc je viens d'une autre génération,
04:24une génération où la pub et la rédaction ne se parlaient pas.
04:27C'était séparé, vraiment.
04:31Je réponds à la question,
04:33c'était séparé,
04:34et ça n'est plus parce qu'on se retrouve
04:35autour de la question de vérité
04:36et la valeur emportée par l'information.
04:39Et c'est là où c'est intéressant.
04:41On a parlé tout à l'heure de contenu.
04:43Tout est confondu.
04:44Le contenu, c'est le plus petit commun dénominateur.
04:48Il n'y a pas de valeur.
04:49On met tout, propagande, publicité,
04:50information dedans, tout se vaut.
04:52Or non, tout ne se vaut pas.
04:54Vous avez entendu,
04:55tous ceux qui sont passés avant
04:56expliquaient qu'il y a une valeur attachée
04:58soit à une marque,
04:59soit à un contenu spécifique
05:00parce qu'il porte quelque chose.
05:02Et celui d'information se rend compte
05:03par défaut,
05:05parce qu'il y a ces fausses nouvelles,
05:06parce que Meta encore fait 16 milliards
05:08de chiffre d'affaires
05:09avec des contenus frauduleux
05:10et qu'on en plus arrête
05:12ces activités de fact-checking,
05:16que finalement,
05:18il y avait peut-être une valeur
05:18qu'on n'est pas allé chercher
05:19ou qu'on n'a pas défendue.
05:21Et qu'on n'a pas défendu
05:22en tant qu'annonceur,
05:24qu'on n'a pas défendu peut-être
05:25en tant que produit à vendre
05:26pour un annonceur
05:27et qu'on n'a pas su toujours défendre
05:28pour une rédaction.
05:29– Et alors, toi,
05:31en tant que directeur de l'APEM,
05:34comment tu agis
05:36pour justement éviter cette confusion ?
05:39C'est quoi dans l'éducation aux médias ?
05:41C'est quoi concrètement ?
05:42– Concrètement, c'est prendre la tête
05:43à la vice-présidente du Sénat
05:44hier soir pendant une heure.
05:47C'est former des gens
05:49de Reworld Media dans la matinée
05:51sur des outils d'éducation aux médias
05:52que l'on a développés
05:53pour faire des séances
05:54de débats d'actualité
05:56pour montrer aux gens
05:57à quoi ça sert de s'informer, par exemple.
05:59Mais c'est surtout, aujourd'hui,
06:02enfoncer le clou sur cette notion
06:03de valeur ajoutée de l'information,
06:05de tout ce qu'elle emporte,
06:07ce que tu viens d'évoquer.
06:08Voilà.
06:09Il y a les questions de...
06:11Je pense que vous connaissez GTI,
06:12c'est-à-dire des...
06:15– Non, je ne suis pas sûr
06:15que tout le monde connaisse le GTI, non.
06:16– Bon, c'est un crédit donné
06:19à certaines marques de presse
06:21parce qu'elles respectent
06:22des critères particuliers.
06:24– C'est une certification,
06:25le Journalism Trust Initiative
06:27qui permet effectivement
06:28de valoriser les contenus
06:30produits par les marques
06:31qui sont certifiées
06:32par ce label.
06:33– Donc, ces initiatives-là,
06:36à défendre ou pas,
06:37d'ailleurs,
06:37parce qu'elles ne sont pas normées
06:39au-delà de GTI elle-même,
06:43voilà,
06:43et la régulation des médias,
06:45elle demande beaucoup de liberté.
06:47Donc, les efforts,
06:48ils sont plutôt dans le sens
06:50d'une acculturation
06:51à ce qu'est l'information,
06:53véritablement à l'information
06:54au sens journalistique,
06:55pas l'information pour faire
06:56un exposé sur le château de la Loire,
06:58ce n'est pas ça.
06:59L'information journalistique
07:00au sens de l'actualité.
07:01Acculturation à tous les niveaux.
07:04Moi, je viens de la télé,
07:06puis de la presse écrite.
07:08Je parle beaucoup
07:09avec des journalistes
07:09et je parle très, très peu
07:10avec des gens de la pub,
07:12par exemple.
07:13Or, aujourd'hui,
07:14le plus grand groupe
07:15de presse quotidienne
07:16en taille et bras,
07:19sa patronne et ma vice-présidente,
07:20c'est 10% de chiffre d'affaires
07:22sur le numérique.
07:23Donc, c'est encore 90%
07:24sur le papier.
07:25Donc, des équipes
07:25qui ne réfléchissent pas
07:27que sur le numérique,
07:28qui réfléchissent encore
07:29avec des anciens codes
07:30qu'il faut acculturer
07:32à ces notions-là.
07:33Donc, le chantier,
07:34il est là.
07:36OK.
07:36Et toi, merci.
07:37Merci beaucoup, Étienne.
07:39Clément, toi,
07:40par rapport à ta vision
07:41de tes professeurs,
07:42tu donnes des cours
07:43en école de journalisme.
07:45Quelle vision tu as
07:46de l'usage
07:47par ces jeunes générations
07:48de l'IA
07:48en tant que journaliste ?
07:50Ce qui est très intéressant,
07:51c'est que c'est une évolution
07:52d'année en année.
07:54On sait tous,
07:55on parle surtout ici
07:57d'intelligence artificielle générative.
07:59Donc, pas la question
08:00des algorithmes,
08:01de Facebook,
08:01tout ça,
08:02c'est beaucoup plus vieux.
08:03Mais vraiment,
08:03sur l'intelligence artificielle
08:04générative,
08:05donc, ça sort
08:06mi-2022,
08:08les premiers trucs
08:09de génération d'images,
08:10puis de chat GPT
08:11le 30 novembre 2022.
08:13Et mes premiers cours
08:14en 2023,
08:16il y a une forme de choc
08:17et il n'y a pas encore
08:18d'acculturation
08:18avec des promos
08:20qui n'ont pas connu
08:22l'enseignement supérieur
08:23avec ces outils-là,
08:25qui ne l'ont pas intégré
08:26dans leur entrée à l'école
08:27et dans leur projet de carrière
08:28parce que ça n'existait pas.
08:29Et donc,
08:31il y avait une grande phase
08:32de découverte.
08:33Aujourd'hui,
08:34en 2025,
08:35quand on arrive devant les classes,
08:38à peu près tous les élèves
08:39ont déjà testé,
08:41utilisé plus ou moins largement
08:43dans leurs études supérieures
08:44et connaissent les principaux outils
08:46qui peuvent être utilisés
08:47d'une façon éthique
08:49dans le journalisme.
08:50Je donne un nom comme ça,
08:51Notebook, par exemple.
08:52J'arrivais en formation
08:53il y a trois ans,
08:55personne ne connaissait Notebook.
08:56Aujourd'hui,
08:5790% des étudiants connaissent.
08:59Ceci dit,
09:01il y a une énorme méfiance
09:02parce que quand on veut
09:04être journaliste,
09:05quand on a ce projet-là,
09:07c'est au nom
09:08d'un certain nombre de valeurs,
09:10la défense de la vérité,
09:11la rigueur, etc.
09:13Et quand on commence
09:14un cours sur l'IA
09:15et qu'on dit
09:16ces outils,
09:18par nature,
09:19sont probabilistes
09:19et peuvent générer du faux,
09:21ce qu'on appelle
09:21les hallucinations,
09:23forcément,
09:24ça jette un froid
09:24dans la salle.
09:25Et quand je dis
09:25techniquement,
09:27ça diminue un petit peu
09:28avec les derniers modèles,
09:29mais globalement,
09:30on ne sait pas le résoudre,
09:31ça jette encore un froid.
09:33Et c'est là où je leur dis
09:33qu'on va apprendre
09:34à l'utiliser malgré tout,
09:36en dépit d'eux,
09:37mais ça reste un outil
09:38qu'éthiquement,
09:41ils ont du mal à appréhender.
09:42Et justement,
09:43on renforce de plus en plus
09:44cet aspect éthique
09:46dans la formation
09:47sur à quel moment
09:48ça peut être judicieux
09:49de l'utiliser
09:50et à quel moment
09:51il ne faut surtout pas l'utiliser.
09:53On parlait de la génération
09:53d'images photoréalistes
09:55tout à l'heure,
09:56mais les outils
09:57sont tellement performants
09:58aujourd'hui
09:58qu'on peut se cloner
10:00ou cloner des voix
10:01et ne plus avoir
10:02à tourner de vidéo.
10:03On peut se dire
10:04ouais, génial.
10:05Et en même temps,
10:06ça pose quand même
10:06des problèmes.
10:07Si vous avez un journaliste
10:08du Monde
10:09ou d'une autre marque
10:10et vous dites
10:10attendez,
10:12est-ce qu'il a vraiment
10:12tourné cette vidéo ou pas ?
10:14Voilà,
10:14c'est des questions éthiques
10:15que les différents groupes
10:17de presse,
10:17d'ailleurs,
10:18n'y répondent pas
10:18de la même façon.
10:19On est dans des zones grises
10:20immenses.
10:21Oui, tout à fait.
10:21Et puis,
10:22on n'y répond pas non plus
10:23de la même façon
10:23selon les pays.
10:24Il y a un certain nombre
10:25de pays en Amérique du Sud
10:26où c'est très pratiqué,
10:26en fait,
10:27les clones,
10:27les avatars.
10:29Alors,
10:29pour préciser,
10:30c'est des avatars
10:30de vraies personnes
10:31qui se sont clonés
10:32pour pouvoir ensuite,
10:34avec un prompt,
10:34avec un texte,
10:35être présent
10:36et faire preuve
10:37d'ubiquité.
10:38Donc,
10:38c'est assez incroyable.
10:39Ça ne pose pas de problème,
10:40par exemple,
10:40semble-t-il,
10:41dans des pays
10:42d'Amérique du Sud.
10:42Ça pose,
10:43en tout cas,
10:44il n'y a pas de chute
10:45brutale
10:46ni de dénonciation publique
10:47des gens
10:48qui le pratiquent.
10:49Mais peut-être
10:50qu'en France,
10:50effectivement,
10:51c'est un peu différent.
10:51Qu'est-ce que tu en penses,
10:52toi, Etienne ?
10:53Ça dépend ce qu'on cherche,
10:54si c'est le volume
10:55ou si c'est la qualité.
10:57Quand je donnais des cours
10:58de journalisme économique,
10:59je m'amusais
10:59avec les étudiants.
11:00Alors,
11:01filer les résultats trimestriels
11:02de Heinz,
11:03un gros groupe américain,
11:05vous me faites une brève
11:06pour demain.
11:07Ah,
11:08250 pages
11:09en cinq links,
11:10ce n'est pas possible.
11:10Mais si,
11:10vous allez y arriver.
11:11Aujourd'hui,
11:12je fais ça,
11:12je me fais rétamer
11:12parce qu'ils le font
11:13en deux minutes,
11:14ils utilisent Anthropique
11:15et c'est fait.
11:16Mais ils vont tous
11:17me sortir le truc identique.
11:19Lorsque l'entreprise Siemens,
11:21je vous donne
11:21des vieux exemples,
11:22l'entreprise Siemens
11:22qui a perdu de l'argent
11:23pendant longtemps
11:24revient aux bénéfices,
11:26on avait le choix
11:27de l'écrire
11:27en disant
11:28Siemens renoue
11:29avec les bénéfices
11:29ou 10 000 emplois plus tard,
11:31Siemens renoue
11:31avec les bénéfices.
11:32Ce n'est pas pareil.
11:33On raconte une histoire.
11:34Il y a un angle,
11:35il y a une qualité,
11:35il y a un rapport éditorial.
11:38Aujourd'hui,
11:39puisque les plateformes
11:40déréférencent
11:41les médias d'information
11:43pour capter
11:44notamment
11:44la recette publicitaire
11:46en partie
11:46et contourner
11:47les questions
11:48de droits voisins,
11:50on s'aperçoit
11:51pour les titres
11:51de l'alliance de la presse
11:52et de la presse quotidienne
11:53qu'il y a
11:54de plus en plus de gens
11:55qui, via Facebook,
11:56retournent vers
11:57des titres de presse.
11:58Donc,
11:59il y a une recherche
12:00de qualité
12:01qui correspond,
12:01je pense,
12:02à ce que tu disais,
12:02à l'identification
12:03de la marque
12:04et produire du journalisme
12:06qui a la qualité,
12:07qui apporte quelque chose,
12:09je reviens à ma notion
12:09de valeur,
12:10mais qui a une richesse,
12:12ça le fait sortir
12:13un petit peu
12:13du bruit ambiant
12:14ou du volume ambiant
12:15en utilisant l'IA
12:17ou autre chose.
12:18Moi,
12:19je suis tellement vieux
12:19que j'ai vu arriver
12:20Internet dans une rédaction.
12:21Un mec qui est arrivé,
12:22il a branché un ordinateur
12:23et là,
12:23on voit c'est Internet.
12:24Bon,
12:25là,
12:25c'est autre chose,
12:25ça va beaucoup plus vite,
12:26c'est beaucoup plus massif,
12:27mais c'est une évolution.
12:29Elle est là,
12:29il faut faire avec.
12:30Je peux rebondir
12:31sur Facebook ?
12:31Oui, bien sûr.
12:32Facebook en formation
12:34l'an dernier,
12:35tu as vu mes slides
12:36puisqu'on travaillait ensemble,
12:38on parlait des boomer traps.
12:40Est-ce que vous savez
12:41tous ce que c'est ?
12:42C'est le fait
12:43d'avoir des images
12:44créées par IA
12:45de plus ou moins
12:46bonne qualité
12:47qui avaient pour but
12:48de générer de l'empathie
12:50et derrière,
12:52de plus ou moins
12:53être utilisées
12:53par des escrocs,
12:54etc.,
12:55pour repérer
12:56les personnes
12:56les plus crédibles
12:57qu'on retrouve sur Facebook
12:58et malheureusement,
13:00il y en a beaucoup
13:00et avec des engagements.
13:03On parlait tout à l'heure
13:03d'engagement,
13:04de partage de commentaires
13:05extrêmement importants
13:06parce que c'est bien fait.
13:08Les plus connus,
13:09c'est mon petit-fils
13:11a fait ce grand cheval
13:12en carotte,
13:13mais personne ne le félicite,
13:14etc.
13:14Et je montrais ça
13:16aux étudiants en journalisme
13:18et j'expliquais le concept
13:19et ils me disaient
13:20« Ah ben non,
13:21nous, ça va,
13:22on n'est pas des boomers. »
13:24Sauf qu'en fait,
13:25c'était il y a six mois
13:26ou un an,
13:27maintenant c'est terminé.
13:29Et tous,
13:29à un moment donné,
13:30ont été confrontés
13:31peut-être au choc
13:33presque anthropologique,
13:35mais d'arriver face
13:36à des vidéos
13:37et ne pas savoir
13:37si c'est de l'IA ou pas.
13:38Le grand exemple
13:39sur lequel a été interrogé
13:41Salomon Altman cet été,
13:42c'est « Les lapins sur un trampoline
13:44filmé de nuit. »
13:45Je ne sais pas si vous avez
13:45cette vidéo
13:46où les gens se sont dit
13:47« Ah ben en fait,
13:48ok, ça c'est de l'IA,
13:50ça, ça peut faire ça. »
13:52Et il y a eu aussi
13:53plein d'autres cas comme ça,
13:56un kangourou dans un avion,
13:58etc.
13:59Et ça,
14:00ça pose de vraies questions
14:01parce que récemment,
14:02il y a une fac américaine
14:04qui a fait un test,
14:05qui a mis quatre étudiants
14:06et qui leur a dit
14:07« Ces vidéos sont-elles générées
14:09par l'IA ou pas ? »
14:11Et franchement,
14:11on parle d'étudiants
14:13de la Ivy League
14:14qui connaissent bien
14:16les réseaux,
14:16les plateformes et tout.
14:18Et à chaque fois,
14:18ils se plantaient.
14:18Enfin,
14:19ils se plantaient une fois sur deux.
14:20Donc en fait,
14:21statistiquement,
14:21ils se plantaient.
14:22Ils n'étaient pas supérieurs
14:24au hasard.
14:26Et à chaque fois,
14:27avec des réflexions
14:27ultra intéressantes
14:28du genre
14:29« Des zèbres qui courent
14:31dans la rue
14:31ne peuvent pas courir
14:32aussi parfaitement,
14:33c'est de l'IA. »
14:34Non, en fait,
14:35ce n'était pas de l'IA,
14:35c'était vraiment des zèbres
14:36qui couraient dans la rue.
14:37Et comme la viralité
14:38sur les réseaux sociaux
14:39est créée en particulier
14:41par ce qui sort
14:42de l'ordinaire
14:43et l'extraordinaire,
14:44ça donne une prime
14:45incroyable
14:46à l'IA
14:47et à l'extraordinaire.
14:48Et donc là,
14:49on va avoir
14:49un vrai problème
14:50où tout ce qui va être
14:51très viral,
14:53on va devoir
14:53se poser la question.
14:55Et ça va créer
14:56un problème
14:56avec un mot
14:57qu'on a appris
14:57durant le Covid
14:58qui est le faux positif.
15:00En mode,
15:00quelque chose va être vrai,
15:02mais on va quand même
15:03en douter.
15:03Et là,
15:04c'est une autre dimension.
15:04On touche à la dimension
15:06cohésion sociale
15:07qui explose
15:08puisqu'on doute
15:09de tout.
15:09C'est le doute
15:12généralisé.
15:14Dernier mot,
15:14peut-être,
15:15tu poses quelque part
15:17la question aussi
15:17de sa position
15:18soit en tant que
15:20consommateur
15:20de contenu,
15:21de sa responsabilité.
15:23Comment est-ce
15:23qu'on acquiert
15:25la compréhension
15:27de ses propres biais
15:28et comment est-ce
15:28qu'on forme
15:29les gens à ça,
15:30Étienne ?
15:30En tant que
15:33consommateur
15:34d'actualité
15:35ou d'information,
15:36vous passez
15:37à un moment donné
15:37à l'école,
15:37après vous travaillez.
15:39Je pense que
15:39tout le monde sait
15:40que Kate Middleton
15:41a eu un cancer.
15:41Pourtant,
15:42on n'est pas tous fans
15:42de la famille royale
15:44d'Angleterre.
15:46On est donc
15:47d'une manière
15:48ou d'une autre
15:48nourris d'actualité.
15:51L'école fait son travail,
15:52elle vous apprend un petit peu.
15:53On parle des fausses nouvelles.
15:54Moi, je déteste
15:54le terme de fausses nouvelles
15:55parce qu'il y a
15:56de la propagande,
15:56de la pub,
15:57de l'information.
15:58C'est un faux concept.
16:00On ne définit pas
16:01si je vous montre
16:04une poire et une pomme,
16:05je ne vous dis pas
16:05ça c'est une pomme,
16:06ça c'est une fausse pomme.
16:07C'est une poire et une pomme.
16:08C'est deux trucs différents.
16:08Vous qui êtes la publicité,
16:11vous avez des codes,
16:11des règles,
16:12des principes,
16:13des modes de fonctionnement
16:13propres.
16:14Ce n'est pas les mêmes
16:14que ceux de la propagande,
16:15ce n'est pas les mêmes
16:16que ceux de l'information.
16:19Donc, il faut aider les gens
16:20à y voir un peu plus clair.
16:23Ça se passe par l'école ?
16:24Ça se passe en partie
16:25par l'école,
16:25ça se passe en partie
16:26par les enseignants,
16:27ça se passe par la famille.
16:28Il n'y a rien de plus absurde
16:29que de dire qu'on arrête
16:30d'apprendre
16:31lorsqu'on a passé son bac
16:33ou on sort de la fac.
16:35On a tous évolué
16:36intellectuellement
16:38à un moment donné,
16:39c'est normal.
16:40Moi, j'ai un sport favori,
16:42c'est d'aller regarder
16:42les commentaires
16:43sous les articles
16:44dans les sites de PQR
16:45pour apprendre un peu
16:46comment pensent les gens
16:46parce que je n'ai pas
16:48la sensation de savoir.
16:49Amusez-vous à le faire.
16:50Allez de Rugby Rama
16:51à West France
16:53ou au Telegram
16:54et lisez un peu
16:54comment la France réagit
16:56à ce qui se passe.
16:57On apprend beaucoup de choses.
17:00Donc, c'est tout au long
17:01de la vie, bien sûr.
17:03Ce n'est pas politique,
17:04mais c'est un choix
17:04et c'est vraiment
17:05un choix de société aujourd'hui.
17:06C'est pour ça que j'ai pris la tête
17:07à la vice-présidente du Siena
17:08hier soir.
17:10C'est un choix culturel,
17:11véritablement.
17:12Et je pense vraiment
17:13à l'heure de la virilité
17:14où tout se mélange
17:15que les endroits comme ici
17:18ont un rôle hyper important
17:19à jouer
17:20parce que économiquement,
17:22ça a un sens
17:22avec vos clients
17:23et socialement,
17:25ça a un vrai sens
17:25en tant qu'intermédiaire,
17:28les agences comme les médias.
17:30Je vais donner un petit tips
17:31rapide.
17:32Il y a le média
17:33d'investigation Next
17:34qui a fait une sorte
17:36de décodeur
17:37à site IA
17:38entièrement automatisé.
17:39Donc, il suffit juste
17:40de l'installer
17:40sur son navigateur
17:41et on sait
17:42si on est sur une plateforme
17:43où il n'y a aucune vérification.
17:45De fait, du coup,
17:46entièrement généré par IA
17:47ou pas.
17:48C'est tout bête,
17:48mais ça peut changer
17:49une navigation web.
17:50Merci beaucoup à vous deux
17:51et encore bravo
17:53pour votre travail
17:54d'éducation aux médias
17:55et de formation des étudiants.
17:56Merci beaucoup.
17:57Applaudissements
17:58Sous-titrage Société Radio-Canada
Écris le tout premier commentaire