- il y a 8 heures
Future of Social Ads - 13 novembre 2025
Quand l'IA redéfinit le marketing social et ses métiers
- Thomas Mesnier (Publicis Media Exchange)
- Sarah Bouchahoua (Snapchat)
Un événement produit par Minted.
Quand l'IA redéfinit le marketing social et ses métiers
- Thomas Mesnier (Publicis Media Exchange)
- Sarah Bouchahoua (Snapchat)
Un événement produit par Minted.
Catégorie
🤖
TechnologieTranscription
00:00Je te laisse partager effectivement ces différentes choses que j'ai appris au sujet de Snapchat et de votre vision et votre rôle pour j'allais dire avoir un monde social-média un peu plus sain.
00:17Donc première question justement chez Snap, quels sont les grands principes ou garde-fous que vous avez mis en place pour vraiment garantir un environnement de diffusion qui soit sûr tout en ne brimant pas on va dire la créativité et ce en garantissant la protection de l'image de marque.
00:37Comment vous mettez en place tout ça chez Snapchat ?
00:41Merci beaucoup Michel et bonjour à tous.
00:43Donc Sarah responsable des affaires publiques pour Snapchat et pour répondre alors j'ai deux types de réponses.
00:48La réponse courte non, la sécurité n'est pas justement une couche qu'on va ajouter a posteriori pour faire joli.
00:55Pour Snapchat c'est vraiment en fait un principe fondateur dans un sens où en fait on estime que la créativité et la sécurité ne s'opposent absolument pas au contraire ils se renforcent mutuellement.
01:05Réponse un peu plus longue mais constructive c'est important.
01:07C'est qu'en fait on estime aujourd'hui que les réseaux sociaux ne devraient pas justement se limiter en une course à la popularité où justement on part à la quête au sensationnalisme, à la viralité qui va justement faire échapper on va dire l'authenticité des échanges.
01:22Snapchat c'est vraiment l'espace où on va échanger avec des amis, on va se divertir, on va rire.
01:27C'est cet espace en fait de confiance et on est conscient des risques afférents justement aux plateformes numériques aujourd'hui et la plateforme a été bâtie sur deux principes fondamentaux.
01:37La sécurité et la vie privée par défaut est fait de magie.
01:41Voilà donc il y a quelques slides pour illustrer tout ça si tout va bien.
01:44Eh bien tout.
01:46Tout va bien.
01:47Tout va bien.
01:48Et donc en anglais c'est un peu plus beau donc security and safety and privacy by design.
01:53Qu'est-ce que ça veut dire concrètement c'est qu'aujourd'hui la plateforme va s'ouvrir immédiatement sur une caméra et non pas sur un fil d'actualité qui va être gouverné par des algorithmes de recommandation complètement opaques.
02:04Par la suite vous allez avoir la messagerie privée qui est la fonctionnalité phare de Snapchat, un contrat de confiance on va dire entre utilisateurs où l'amitié se doit d'être tout d'abord réciproque.
02:12Les captures d'écran, les enregistrements de messages vont être directement notifiés à l'utilisateur pour lui donner les billes, les clés justement du contrôle de ses interactions.
02:21Il y aura trois espaces publics, la carte, Discover et Spotlight qui vont faire l'objet justement d'une modération exacerbée avec tout d'abord une couche de modération algorithmique et par la suite un regard humain parce que c'est important justement d'avoir tout ce contexte avant une diffusion massive à l'audience.
02:40Tout ça qu'est-ce que ça veut dire ?
02:41C'est-à-dire que la plateforme en elle-même via sa conception va assurer une sorte de rempart structurel contre toute diffusion massive de contenu problématique, de contenu préjudiciable et à contrario on va offrir justement cet espace de sécurité pour l'utilisateur.
02:55Et cet engagement il va se traduire également par des exemples concrets pour les annonceurs et pour les agences.
03:00Snapchat a récemment justement sorti une nouvelle suite de brand suitability.
03:05C'est pas mal cet anglicisme.
03:07Oui mais oui on va dire que ça fait partie un peu de notre univers.
03:12Mais dans un sens justement on va permettre aux annonceurs de contrôler la diffusion, donc de contrôler l'environnement de diffusion de leur contenu, de leur campagne avec des outils comme IAS ou justement Double Verify qui vont permettre d'avoir des données mesurables et vérifiées.
03:30Alors une fois qu'on a dit tout ça, côté agence Thomas, quelle est ta lecture du niveau de confiance des marques vis-à-vis des plateformes sociales ?
03:40Parce que quand même c'est un peu, on va dire qu'il y a beaucoup de débats autour des problèmes que ça peut générer sur un plan sociétal.
03:47Est-ce qu'on est sur un marché qui a progressé de ton point de vue ou encore trop dépendant des, désolé de le dire, promesses des plateformes ?
03:55Après on va peut-être rentrer dans le concret justement.
03:57Globalement autour de la brand safety, il y a vraiment une question de confiance aussi, qu'on soit sur le social comme sur l'open web.
04:04Je pense que les plateformes sociales, toutes, ont fait un énorme travail sur justement le respect à la fois des règles de la communauté, le respect justement de créer des environnements qui soient brand safe par défaut.
04:17On a ensuite les problèmes, on va dire plus de brand suitability, avec donc d'apparaître avec un certain contexte autour sur lequel la marque pourrait juger qu'on n'est pas exactement dans l'écrin qu'elle aurait aimé.
04:31Mais cela dit, sur le côté de purement de la brand safety, on n'est pas du tout sur le social en face des mêmes problèmes que ce qu'on peut voir dans l'open web.
04:39Et particulièrement parce qu'il y a beaucoup moins de contextualisation finalement sur le social, puisqu'il n'y a pas vraiment d'emplacements qui vont venir par dessus ou au milieu d'un autre environnement.
04:49Quand vous êtes sur, que ce soit sur une publicité dans Snapchat, une publicité dans Instagram en Reels, dans TikTok par exemple, le contenu s'affiche de la même manière qu'un contenu organique.
04:58s'affiche en 100% par décran. Je ne pense pas qu'il y ait une vraie contextualisation dans la tête de l'utilisateur entre le contenu 1, je swipe up, la pub, je swipe up, le contenu 2.
05:08On peut voir trois choses qui sont complètement différentes. Donc à partir de là, il n'y a pas vraiment ce problème de contextualisation.
05:13Donc il y a une barrière à l'entrée sur les contenus problématiques qui est opéré par les plateformes.
05:18Forcément, il y a toujours deux, trois trucs qui passent au travers.
05:20On peut même avoir des associations qui vont ingénierer des profils pour arriver à essayer de dire que c'est problématique.
05:30C'est sans commune mesure de toute façon avec les problèmes rencontrés sur l'open web.
05:34Et ensuite, sur le côté contexte, on est quand même extrêmement léger.
05:38Donc sur ça, la maturité des annonceurs est aussi de se dire, finalement, si j'ai confiance en la plateforme sur laquelle je vais pousser des ads,
05:49je n'ai pas vraiment besoin de venir payer trois ou quatre tiers vérificateurs pour finalement avoir une information que ma brand safety est extrêmement bonne.
06:00Merci Thomas.
06:01Alors j'aimerais bien qu'on aborde la notion de nouvelles menaces, nouveaux défis, notamment autour de l'IA, de l'UGC, User Generated Content et de la viralité.
06:11Alors on a beaucoup et on va continuer à beaucoup parler de l'IA qui permet une montée en puissance, on va dire, des contenus générés par les utilisateurs.
06:21Quels sont toi, Sarah ?
06:23Les garde-fous humains.
06:24Je parlais de choses concrètes.
06:27Donc les garde-fous humains ou technologiques qui font ou feront la différence.
06:31Quand je dis qu'ils font ou feront la différence, c'est en parler de notion de confiance.
06:35Que ce soit du côté de l'utilisateur ou que ce soit du côté de la marque, une envie plutôt à investir sur une plateforme sociale qui respecte un certain nombre, j'allais dire,
06:44en tout cas qui pose un certain nombre de garde-fous pour s'assurer que ce soit brain safety, je ne sais pas si on a, brain safety, pardon, pardon, désolé,
06:52ou la brain suitabilité.
06:55C'est aussi beaucoup de néologisme.
06:57Mais voilà.
06:57Alors tout d'abord, selon moi, les garde-fous les plus efficaces ne sont pas uniquement technologiques, mais tout d'abord structurels et humains.
07:05Chez Snap, tout va commencer justement par la structure même, la conception même de la plateforme.
07:09Il n'y a pas de viralité.
07:10On va lutter contre tout ce qui va être enfermement algorithmique.
07:13On en parle beaucoup en ce moment.
07:14Les bulles de filtres où les utilisateurs ne vont être malheureusement visés que par des contenus qui vont conforter leurs émotions ou justement leurs idées.
07:23Chez Snap, on applique ce qu'on appelle un algorithme de recommandation qui va s'appliquer sur des critères objectifs et subjectifs,
07:30selon ce que l'utilisateur consomme, mais aussi en même temps par rapport à l'actualité.
07:33Donc moi, aujourd'hui, j'adore la nourriture.
07:35C'est génial.
07:36Très bien.
07:36Je vais avoir des contenus liés à Cyril Lignac.
07:38Mais en même temps, je vais avoir des contenus liés au sport.
07:40Je sais tout de suite que ce soir, il y a un match de foot.
07:42Donc je ne suis pas une footique, ça se prend.
07:45Mais j'aurai des contenus liés à la politique, par exemple.
07:47Donc c'est vraiment quelque chose qui va me permettre de lutter contre tout ce qui va être diffusion de fausses informations,
07:52mais surtout tout ce qui va être lié à des ingérences étrangères.
07:55Et à ce titre, Snapchat est aujourd'hui une des plateformes qui justifie le moins de ce qui va être appelé des fake news.
08:00On s'est distingué par ailleurs sur les derniers rapports de l'ARCOM sur la manipulation de l'information,
08:05avec des chiffres très faibles.
08:07Et en parallèle, on va s'appuyer sur tout ce qui va être en lien avec l'éducation et la sensibilisation des utilisateurs.
08:12Parce qu'on parle des contenus UGC.
08:16Je travaille pour une plateforme technologique, mais ça ne fonctionne pas.
08:23C'est les inconvénients du direct, mais il en faut toujours.
08:25Bon, on continue.
08:26Show me of the room.
08:28Donc pour le coup, on va essayer de travailler sur la sensibilisation des utilisateurs
08:32en mettant en place tout d'abord un mécanisme de signalement qui va être disponible sur l'ensemble de la plateforme
08:37et qui va permettre à l'utilisateur de nous signaler tout contenu ou comportement préjudiciable.
08:43Par la suite, on va s'appuyer sur la sensibilisation, que ce soit sur la plateforme,
08:47avec par exemple des activations en réalité augmentée auprès des adolescents sur la santé mentale, par exemple,
08:53ou même en accompagnement des familles.
08:55Donc on a mis en place ce qu'on appelle le centre parental,
08:57qui va permettre aux utilisateurs et aux parents de suivre l'activité numérique de leurs enfants
09:05sans pour autant empiéter sur leur vie privée.
09:09Et en parallèle, on va travailler même avec des médias, donc parents, magazines ou autres,
09:14pour expliquer les dangers du numérique.
09:15Et tout ça nous permet d'être très réactifs et proactifs, juste un chiffre clé.
09:19On publie chaque semestre notre rapport de transparence et Snapchat,
09:23par exemple en matière de harcèlement ou de cyberharcèlement, va retirer en moins de 13 minutes
09:27tout contenu préjudiciable des réceptions du signalement de la part d'un utilisateur.
09:31On va travailler également avec des associations de protection des mineurs.
09:34On peut citer e-enfance, points de contact et autres,
09:37avec lesquels on va travailler sur la sensibilisation dans les écoles, dans les lycées,
09:41sur tout ce qui est justement risque du numérique.
09:43Alors justement, Thomas, quand on entend ça, on parlait de confiance tout à l'heure,
09:47on va dire qu'on est plutôt dans un environnement rassurant.
09:51On parlait des fameux 13 minutes pour enlever des contenus problématiques.
09:56Au niveau de la stratégie d'achat, j'allais dire, sur les plateformes sociales,
10:00est-ce que cette notion de brand safety et de brand suitability
10:04se sont devenus des critères aussi prioritaires que la performance ou la visibilité ?
10:09Petite parenthèse, il y a 2-3 ans, tout le monde s'est gosillé sur la RSE, RSE par-ci, RSE par-là.
10:15Et on voit qu'aujourd'hui, il y a une sorte de hype qui s'est un petit peu dégonflée.
10:22Au service de la performance, au service, je ne sais pas, mais en tous les cas,
10:25la performance a pris le dessus.
10:27C'est quoi la réalité en termes de stratégie d'achat sur une plateforme sociale ?
10:31La hype de la RSE, déjà, est toujours très haute chez nous, Publicis.
10:36C'est le premier point. On est toujours très alerte sur ces parties-là.
10:41Sur la réponse à la question, par contre, sur la partie brand safety,
10:45on a toujours effectivement des annonceurs qui sont parfois un petit peu frileux
10:48et qui vont faire le choix de n'être que dans des contenus qui ont été vêtés,
10:53qui ont été validés au préalable.
10:55Donc, de passer par, notamment, des technologies de pré-bid, par exemple.
10:58Donc, je m'assure d'être à côté de contenus ou juste après des contenus
11:02ou au-dessus de contenus qui ont été validés par une technologie
11:07en laquelle j'ai toute confiance, voire à la mano, parfois,
11:10sur certaines plateformes sur lesquelles on ne va dire
11:13« je ne veux être que dans les profils de telle personne, telle personne, telle personne »
11:18ou que dans les vidéos de telle personne, telle personne.
11:21Le contre-coup de ça, c'est assez immédiat.
11:24C'est des CPM qui vont doubler, tripler,
11:27puisque forcément, on réduit drastiquement l'inventaire disponible
11:30pour ne dire « je ne veux aller que là ».
11:32Pour l'utilisateur, de toute façon, c'est exactement la même chose.
11:35C'est-à-dire, s'il fait apparaître cette vidéo-là,
11:37notre publicité a la possibilité de venir par-dessus ou de venir à côté.
11:41Donc forcément, on va réduire drastiquement l'inventaire.
11:44Le fait d'avoir ça, finalement,
11:46et comme je disais, avec la confiance que les annonceurs accordent aux plateformes sociales,
11:52on va diminuer grandement l'intérêt, effectivement, de se dire
11:56« je suis prêt à payer 3-4 fois plus cher
11:58pour apparaître dans quelque chose qui a été sécurisé au préalable ».
12:03Donc ça, c'est vraiment le point principal.
12:06Lorsqu'on est sur des indicateurs de brand safety sur le social
12:08qui vont être à 2-3% d'impressions qui vont être marquées « non brand safe ».
12:13Le fait d'arriver à zéro, vous allez tripler votre budget
12:15si vous voulez avoir le même nombre d'impressions.
12:18La part des choses est assez rapidement faite de la part des annonceurs.
12:22Merci Thomas.
12:23Alors, on a évoqué cette notion de responsabilité partagée.
12:26On a parlé de la responsabilité de Snap vis-à-vis des utilisateurs.
12:30Et si on parlait de la responsabilité, d'une certaine manière,
12:32de Snap vis-à-vis du marché, j'allais dire publicitaire,
12:34les agences et les marques, comment Snap aujourd'hui
12:37travaille concrètement avec les agences et les annonceurs
12:40pour co-construire justement ce fameux cadre de confiance
12:43que tu nous as évoqué tout à l'heure auprès des utilisateurs.
12:46Alors Michel, c'est comme dans un couple.
12:48Oui.
12:48Tout repose sur la transparence et le dialogue continu.
12:51Je confirme.
12:52Voilà.
12:53Donc on va faire essentiellement justement des sessions.
12:56On aura un échange assez ouvert avec nos agences.
12:58Je sais qu'avec Publicis, on fait très souvent justement
13:00des moments de dialogue ouvert à bâton rompu.
13:03On va partager justement les bonnes pratiques,
13:05que ce soit en matière de créativité, de sécurité, de modération.
13:08Et là, on se permet justement d'aborder toutes les questions
13:11qui nous fassent plaisir ou qui fâchent concrètement.
13:14Et nous, on pourra apporter les réponses
13:15ou on pourra même faire un retour d'expérience
13:17auprès de nos équipes produits ou autres.
13:19C'est un point qui est assez essentiel
13:20et qu'on va faire non pas que avec les annonceurs ou les agences.
13:23Je reviens sur l'aspect plutôt protection des mineurs
13:25qui est assez important pour Snapchat
13:27parce que c'est une des majeures priorités.
13:29Et on va voir, par exemple, qu'on va faire ce même travail
13:32avec, par exemple, des experts dans la protection des mineurs.
13:35Donc, on a notre Safety Advisory Board.
13:41Je ne sais pas.
13:43C'est parce qu'ils travaillent ici.
13:46Et donc, on va faire justement des points assez réguliers
13:48avec notre Safety Advisory Board
13:50qui va réunir plus de 30 experts internationaux
13:52sur la protection des mineurs
13:53et avec qui on va leur présenter les produits
13:54qu'on souhaite sortir très prochainement.
13:56Et ils vont apporter justement leur retour.
13:58Qu'est-ce qu'on doit modifier ?
13:59Qu'est-ce qu'on doit changer ?
14:00On va faire la même chose avec les adolescents.
14:02Donc, en juin dernier, on a sorti ce qu'on appelle
14:04le Centre Européen pour les Adolescents.
14:07C'est un peu notre Conseil Européen des Adolescents.
14:10C'est un peu politique.
14:12On a deux ambassadrices qui sont exceptionnelles,
14:14qui représentent la France
14:15et qui vont se réunir justement une fois par mois
14:17en visioconférence et une fois par an
14:19avec les autres collègues européens
14:20en présentiel dans un de nos bureaux
14:22et qui vont nous apporter justement leur retour d'expérience
14:24que ce soit sur Snapchat ou sur l'espace numérique
14:27d'une manière générale.
14:28Et c'est vraiment à nouveau une conversation à bâton rompu.
14:31Et la surprise du chef, c'est qu'on ramène leurs parents.
14:34Ça, ils n'étaient absolument pas au courant.
14:35Et donc, on va avoir cette conversation.
14:37On va confronter les idées.
14:38On va se dire comment on peut rendre Snapchat meilleur.
14:40Et pour le coup, souvent, on a des retours d'expérience
14:42complètement crus.
14:43Et ça nous aide justement à améliorer la plateforme.
14:44Donc, tout repose à nouveau sur la transparence
14:46et l'échange continu.
14:47Merci, Sarah.
14:49Il faut qu'on termine assez vite.
14:52Thomas, est-ce que tu ressens véritablement
14:54que ce dialogue avec les plateformes s'est renforcé ?
15:00Ou est-ce qu'il y a encore, soyons clairs,
15:02des zones d'ombre,
15:04notamment dans la transparence des données
15:06et des outils de vérification ?
15:08Alors, il y a les deux, effectivement.
15:10Nous, on rencontre régulièrement,
15:12une à deux fois par an,
15:13les product owners des différentes plateformes,
15:16que ce soit des plateformes américaines,
15:17des plateformes chinoises,
15:18des plateformes françaises,
15:19pour justement amener un petit peu plutôt
15:20notre avis sur le produit publicitaire,
15:22notre avis sur les besoins, finalement,
15:24des annonceurs et des agences.
15:25Donc, faire évoluer aussi le marché par rapport à ça.
15:29Maintenant, effectivement,
15:29on a quand même une petite inquiétude aussi
15:31sur certaines plateformes
15:33qui se dirigent de plus en plus vers,
15:35encore une fois, beaucoup d'IA,
15:36beaucoup de presque black box, finalement,
15:39à dire, eh bien, donnez votre budget
15:41et vous aurez des résultats à la fin.
15:43Et tout ce qu'il y a entre les deux est invisible.
15:44Ça, c'est effectivement des choses
15:46sur lesquelles on fait remonter
15:47les informations auprès de ces plateformes,
15:49comme quoi ça ne nous va pas
15:51et ça ne va pas aux annonceurs.
15:52Parce que si on n'a pas d'insight, finalement,
15:54sur ce qui fonctionne
15:55entre le moment où j'ai mis mon argent
15:56et le moment où j'ai un résultat,
15:58eh bien, on rentre dans une espèce
15:59de course folle
16:02sans forcément réussir à optimiser quoi que ce soit.
16:05Et ça, effectivement, ça nous pose problème.
16:07Donc, on travaille avec les plateformes sur ça
16:08et on aimerait encore plus de transparence,
16:11même si on a déjà la chance d'en avoir beaucoup.
16:13– Allez, une toute dernière question.
16:15Vraiment, en moins de 30 secondes.
16:18Sarah et Thomas, si on se projette à deux ans,
16:22quelle serait, selon vous,
16:23l'évolution majeure de la brain safety
16:25dans l'univers du social ?
16:27Est-ce qu'on va vers plus de technologie,
16:29plus de régulation, plus de...
16:31Allez, je ne l'en fous.
16:32De responsabilité collective.
16:33– Je pars sur la responsabilité collective.
16:36Je passe ma vie dans les ministères
16:38et les parlements.
16:39Et pour le coup, la régulation,
16:40il y en a beaucoup.
16:41Maintenant, je pense qu'aujourd'hui,
16:43il faut que, justement,
16:44l'ensemble des acteurs,
16:45que ce soit plateforme, agence, annonceur,
16:47on commence à adopter et à s'approprier ces régulations.
16:49On a le DSA, le DMA, les actes,
16:51qui approchent très prochainement.
16:53Et pour le coup, aujourd'hui,
16:55je pense que la priorité est sur le discernement humain.
16:57On parle beaucoup d'IA,
16:58mais tout ne repose pas sur l'IA.
16:59Il faut que l'humain soit au centre
17:00pour, justement, limiter la viralité
17:02et surtout analyser les risques systémiques des plateformes.
17:05Merci, Sarah.
17:06Thomas ?
17:07Et moi, je dirais,
17:08effectivement, pour aller dans ton sens,
17:09sur la responsabilité collective,
17:11les annonceurs votent avec leur argent
17:12et les utilisateurs votent avec leur temps.
17:15Et donc, à partir de là...
17:16C'est plus avec les pieds ?
17:17Non, c'est effectivement...
17:19Il y en a certains qui font avec les pieds.
17:22Donc, je pense, effectivement,
17:23qu'on devrait avoir plus de responsabilité collective
17:25et on devrait avoir surtout sur cette partie
17:27d'IA et de dilution du réel
17:30avec le côté un petit peu fake news
17:31exacerbé sur certaines plateformes.
17:33On devrait avoir un petit peu plus de contrôle sur ça.
17:36Est-ce que ça rentre dans la bande safety ?
17:37Est-ce que ça rentre dans la bande suitability ?
17:38Est-ce que ça rentre dans toute cette évolution-là
17:40de cette technologie ?
17:41Je ne sais pas.
17:43Mais ça m'intéresserait d'être dans deux ans
17:45pour voir où est-ce qu'on en a, effectivement.
17:46Super.
17:47Merci, Thomas.
17:48Merci, Sarah.
17:49Merci beaucoup.
17:49Et merci à vous pour votre groupe.
17:51Merci à vous.
17:51Merci à vous.
Écris le tout premier commentaire