Passer au playerPasser au contenu principal
  • il y a 2 mois
Lundi 8 décembre 2025, retrouvez Grégoire Toussaint (Directeur au sein d'Edgar, Dunn & Company), Anthony Level (Responsable de la stratégie, Labe4.ai) et Roxana RUGINA, (Directrice Exécutive, Impact AI) dans SMART TECH, une émission présentée par Delphine Sabattier.

Catégorie

🗞
News
Transcription
00:00Et donc on démarre cette édition avec les interviews de l'IA, le rendez-vous de Smartech qui donne la parole à ceux qui font l'actualité dans le domaine de l'intelligence artificielle.
00:11Aujourd'hui au tour de la table, trois personnalités, Grégoire Toussaint d'abord avec qui on va parler de fraude au paiement, notamment avec l'arrivée de ce commerce agentique.
00:21Et puis Anthony Lebel avec qui on va mieux comprendre comment on peut détecter ces IA qui veulent nous tromper.
00:30Mais on commence avec vous Roxana Regina. Bonjour à tous les trois et bonjour Roxana.
00:35Vous êtes directrice exécutive d'Impact AI qui lance les cafés de l'IA responsable.
00:40Première question, qu'est-ce que vous appelez l'IA responsable ?
00:44Merci beaucoup pour la question.
00:47Nous sommes un collectif de 100 entreprises, donc se mettre d'accord sur une définition de l'IA responsable, ça nous a pris un petit moment.
00:56Et c'est un voyage en fait pour nos IA responsables puisqu'on y est depuis 2017 ensemble en train de réfléchir, de se partager des bonnes pratiques, des outils, de comment la mettre en place ces IA responsables.
01:10La question reste, qu'est-ce que c'est ? Et ça évolue aussi dans le temps.
01:14Si au début on s'est mis d'accord sur ces principes qui ont été partagés par OECD, mis aussi en valeur dans l'IA Act, on les retrouve dans la régulation aujourd'hui et dans le texte de loi.
01:25On trouve aussi des sujets qui apparaissent avec l'IA gentil, les deepfakes, des nouveaux concepts qu'on doit intégrer dans ces définitions, qu'on doit prendre en compte.
01:39Donc pour moi, une IA responsable c'est une culture, une culture qu'on doit développer au sein de l'entreprise aujourd'hui.
01:45D'accord, et donc qui est évolutive, mais qui peut être aussi personnalisable, ça dépend de l'activité dans laquelle...
01:52Oui, ça dépend beaucoup des valeurs de l'entreprise. Chez nous, on a beaucoup d'entreprises qui ont un comité éthique, qui ont une charte éthique,
01:59donc qui partent des valeurs de l'entreprise et qui intègrent en fait l'IA au cœur de leur business avec une vraie stratégie autour des sujets comme la durabilité,
02:11l'impact sur l'environnement ou l'impact sur le travail qui se posent aujourd'hui de manière très claire sur la table.
02:18Donc ils doivent avoir toutes ces réflexions et répondre avec un cadre qui est mis en place, qui existe, de gouvernance de l'IA au sein de l'entreprise.
02:26Les cafés de l'IA, l'objectif c'est de former des collaborateurs en entreprise, c'est ça ?
02:31Former un million de salariés.
02:32Un petit café entre nous, ou comment ça se passe ?
02:35Ça se passe exactement comme ça, ça peut se passer autour d'un café, parce que ce qu'on propose aujourd'hui, c'est une forme d'essai-image de l'initiative
02:46que Gilles Babinet a eue avec le Conseil national du numérique, les cafés IA, qui s'adresse à tout public.
02:51Donc l'idée c'est de décliner ça pour les entreprises.
02:54Nous ça fait 7 ans qu'on a un observatoire de la perception des salariés de l'IA et de comment est-ce que leurs usages influencent la confiance qu'ils ont ou pas dans l'IA.
03:05Et la question de la confiance est les clés.
03:08A cette question on répond de manière technique, avec des formations très techniques de comment prompter, comment adopter les outils.
03:15Mais aujourd'hui l'enjeu est de lever les francs psychologiques, émotionnels.
03:18Il y a des angoisses, des vraies angoisses que les salariés ont et ils ont besoin de s'exprimer, de libérer la parole.
03:24Donc ce format de café, petit café autour de la machine à café, ou peut-être entre nous, d'une manière ludique, exploratoire et qui permet d'échanger,
03:37s'invite à nous et nous on réfléchit depuis un moment.
03:41Donc là maintenant c'est l'occasion de lancer un vrai programme modulaire qui peut s'adapter en fonction de l'entreprise, de la taille d'entreprise et de ses priorités.
03:52Il peut s'adapter sur la durée.
03:53Il peut y avoir les dirigeants de l'entreprise aussi parce que parfois c'est eux qui ont des idées fausses sur l'intelligence artificielle et ce qu'ils peuvent en faire au sein de leurs équipes.
04:01L'esprit de ces cafés c'est justement d'amener tout le monde autour de la table, des techs, des non-techs, des sachants, des débutants, des personnes qui n'ont peut-être pas confiance,
04:12voire ils sont vraiment méfiants face à la machine et de permettre d'échanger autour des usages de comment est-ce qu'il y a à entre dans son quotidien en tant que professionnel.
04:22Il y a aussi la question des métiers, comment est-ce que l'impacte les différents métiers et donner des cas concrets pour partir sur les dilemmes éthiques et échanger à tour de rôle, faire des jeux sympathiques avec des cartes.
04:36On a prévu pas mal des outils et des formats très différents qui permettent d'interagir.
04:41Les outils proches de l'intelligence collective ?
04:43Exactement, nous chez Impact AI c'est ce qu'on fait, intelligence collective, on amène tous nos sachants ensemble, les experts IA,
04:51mais pas que les experts en RSE, en pédagogie, les psychologues, les sociologues qui étudient ces phénomènes de Shadow AI, de Naive AI,
05:00et qui viennent maintenant tous proposer avec leur regard et leur perspective différentes solutions.
05:06Qu'est-ce que vous en pensez autour de la table ?
05:09Je pense que c'est effectivement une excellente idée d'essayer de créer une émulation autour de l'usage responsable de l'IA.
05:14J'essaierai de plaider tout à l'heure pour un usage responsable en particulier qui est la transparence de l'IA,
05:17mais je trouve qu'effectivement il faut dialoguer et quelquefois il y a un plafond de verre, effectivement,
05:21où les dirigeants et les comex ne sont pas du tout sensibilisés à des problématiques pour lesquelles ils devraient l'être.
05:26Et surtout, on n'entend pas souvent parler des utilisateurs de l'IA, c'est les voix les moins entendues.
05:35Pour lancer ces cafés de l'IA responsable, on a lancé un premier module,
05:40parce que j'ai oublié de dire, mais ce sont des modules qui seront accessibles à toutes les entreprises,
05:45en open source, toutes nos publications sont disponibles sur le site internet.
05:49Et le premier module, c'est un podcast qui s'appelle « Mon job avec l'IA »
05:54et ce sont dix voix, dix témoins avec dix métiers différents qui racontent leur vie, leur quotidien avec l'IA,
06:01comment ça les impacte, quels sont leurs questionnements.
06:04On les entend maintenant en ligne, on est très contents et on espère que beaucoup plus de voix se rejoindront à nous.
06:11Et c'est vrai que c'est important, je pense qu'il y a deux mots qui sont clés, la partie réfractaire.
06:16Je pense qu'il y a la conduite du changement, avoir l'IA, le pouvoir l'utiliser en tant que salarié,
06:20mais aussi en tant que particulier au jour le jour.
06:23Et puis la notion de confiance, des nouveaux usages se créent, est-ce qu'on a confiance ?
06:29Où va l'IA ? Est-ce que ce sont des choses concrètes ou des choses qu'on appréhende un peu ?
06:34Et cette notion de confiance, je pense que ça se construit au fur et à mesure.
06:37Alors on va parler confiance d'ailleurs avec vous deux.
06:39On commence Grégoire Toutain avec vous.
06:41Vous êtes directeur au sein du cabinet de conseil en stratégie spécialisé dans les moyens de paiement Edgarden Company,
06:47chairman des sessions paiement du salon Trustech.
06:50Trustech 2025, ça va être du 2 au 4 décembre, je précise pour ceux qui ont envie de passer une tête au Parc des Expos à Portes de Versailles.
06:57C'est plutôt un salon professionnel ?
06:59Oui, salon professionnel sur les solutions de paiement et d'identité également.
07:04D'accord.
07:05Comment est-ce que vous abordez aujourd'hui cette question de la confiance avec l'intelligence artificielle,
07:10et notamment dans la question du paiement ?
07:12Est-ce que vous voyez l'IA comme un facteur aggravant pour les fraudes, ou au contraire comme une solution ?
07:18Alors je pense que l'IA...
07:19Les deux, vous allez me dire.
07:20Tout à fait.
07:21Mais si on prend un peu de recul, je pense que l'IA, on a un tournant,
07:24comme au début des années 2000 avec l'e-commerce,
07:26ça devient un nouveau canal de vente pour les commerçants.
07:30On se souvient, dans les années 2000, il y a certains commerçants qui disaient
07:32« Non, l'e-commerce, j'y crois pas, moi je reste dans mes magasins ».
07:36Je pense que l'IA, ça va être la même chose, c'est un nouveau canal de vente qui se crée,
07:39un petit peu comme dans le domaine du voyage,
07:41où il y a des agents de voyage qui vont proposer et distribuer les services
07:44des compagnies aériennes ou des chaînes hôtelières.
07:47Donc d'une certaine manière, les marchands vont devoir collaborer,
07:49offrir ce nouveau canal de vente.
07:51Et après, ça va être des agents IA qui vont proposer aux particuliers,
07:56on va plus faire une recherche.
07:58C'est un peu ce qui s'est passé aussi avec la révolution moteur de recherche,
08:01qui devenait un premier filtre vers les sites.
08:05Là, c'est un filtre supplémentaire avec les agents, ça va être compliqué quand même.
08:09Oui, exactement.
08:10Et plus d'ailleurs ciblé sur certains usages.
08:13J'ai envie de faire de l'escalade ou j'ai envie de voyager.
08:16Et après, comment le paiement va s'intégrer ?
08:19Parce qu'il va y avoir une partie recherche et l'IA va faciliter toute la partie recherche
08:23comme le fait le moteur de recherche sur Internet.
08:25Et après, la partie paiement, comment elle va s'intégrer ?
08:28Donc il y a beaucoup de questions au sujet du consentement,
08:31de l'authentification au niveau de la transaction.
08:34Mais une fois qu'on a payé, après, s'il peut y avoir des cas de fraude,
08:39parce qu'on en revient au niveau de confiance,
08:41et quand il y a des cas de fraude, comment est-ce qu'on va disputer ces transactions ?
08:45Donc tout un aspect qui sont toujours à développer au niveau des paiements.
08:52Si par exemple l'IA réalise, ou l'agent IA réalise une transaction et que je la conteste,
08:58aujourd'hui ce cas-là n'est pas encore arrivé, j'imagine,
09:01mais comment ça va se passer avec ma banque ?
09:03Alors, c'est une très bonne question.
09:05En ce moment, les transactions au niveau IA,
09:08ce qu'on appelle le commerce agentique, existent, mais restent faibles.
09:10Mais on utilise tous les standards et les protocoles existants.
09:15Donc c'est-à-dire que s'il y a une transaction qui est effectuée,
09:18s'il y a eu un 3D Secure, une authentification forte que j'ai faite,
09:22là, il y a la preuve de la transaction.
09:24Si ce n'est pas le cas, on peut contester,
09:26et donc du coup être remboursé,
09:27parce qu'il n'y a pas justement ce niveau de sécurité qui a été apporté.
09:30Vous avez le sentiment que la confiance augmente,
09:33ou au contraire qu'on a de plus en plus un problème de confiance dans les paiements ?
09:36Je pense qu'il y a toujours une notion de confiance qui est difficile à trouver.
09:40Il faut trouver le bon équilibre sur les paiements.
09:42Est-ce qu'on souhaite avoir un parcours client qui soit le plus fluide possible ?
09:46Idéalement, dans le commerce agentique, c'est,
09:48s'il te plaît, fais-moi mes courses pour acheter un poteau-feu,
09:53et hop, il y a la liste des courses qui est immédiatement achetée,
09:55et je suis livré le lendemain, et le paiement est intégré.
09:57Je n'ai même pas vu combien ça me coûtait.
09:59Après, il peut y avoir justement certaines étapes,
10:03mais c'est un très bon exemple.
10:05Pour arriver à ce cas d'usage,
10:07il y a des aspects au niveau paiement, au niveau consentement,
10:10authentification qui sont très importants,
10:12et après, c'est de confiance qui va arriver au fur et à mesure.
10:16Je pense que ce cas de figure, il ne va pas se développer l'année prochaine,
10:20mais au fur et à mesure qu'on interagit avec l'intelligence artificielle,
10:23qu'on fait des recherches,
10:24après, l'étape suivante, ça serait justement le paiement.
10:27Des réactions là-dessus, sur ce point ?
10:30Non, ce qu'on a vu, c'est que plus on utilise l'IA,
10:33moins on a confiance,
10:34je veux dire, plus on est conscient des risques.
10:40Attendez, refaites-moi la phrase que je suis sûre d'avoir compris dans le bon sens.
10:43Plus on utilise l'IA au quotidien,
10:46plus on est conscient de ses limites aussi,
10:49et donc des risques auxquels on est exposé,
10:53et donc moins on a confiance dans l'IA en général.
10:56Du coup, c'est pour ça qu'on proposait les cafés IA,
10:59pour redonner des repères au sein de l'entreprise,
11:03parce que c'est là où on retrouve la confiance,
11:06dans le fait que je sais vers qui aller.
11:08Si j'ai une question, si mon outil de RH,
11:11je vois qu'il favorise un certain type de profil,
11:15je m'oriente vers qui ?
11:17Comment est-ce que je vais mettre en place des mesures pour limiter les biais ?
11:23Pour le cas du paiement, on aura qui comme référent ?
11:25Je parlais de la banque, par exemple, je vais appeler ma banque,
11:27je vais lui dire, c'est mon agent, en fait,
11:28mon agent IA qui a réalisé la transaction.
11:30Est-ce qu'on ne va pas manquer d'un tiers de confiance ?
11:34In fine, comme une transaction carte,
11:36on a l'émetteur de la carte.
11:39Donc là, la banque, si on a une suspicion de fraude,
11:42c'est la banque qu'on va contacter en premier.
11:44Après, c'est la banque, au travers des paiements,
11:46qui va apporter la preuve.
11:49Est-ce que cette transaction a été autorisée,
11:51authentifiée comme elle se doit ?
11:53Et c'est pour ça que c'est tout l'enjeu des standards de paiement
11:56pour vérifier l'identité de l'acheteur
11:59et s'assurer que la transaction soit une bonne transaction.
12:01Une transparence dans toute la chaîne.
12:03Et l'enjeu de l'explicabilité,
12:05à savoir comment la décision a été prise
12:08et comment est-ce que je peux revenir en arrière
12:15si il y a besoin de contrôler et de démarrer une procédure ?
12:20Et ça, c'est un très bon exemple
12:22parce que je pense qu'il y a le niveau du consentement
12:23au niveau de l'humain, mais aussi au niveau de l'agent.
12:25Est-ce que c'est un bon humain ou un mauvais humain,
12:27ce qui est le cas au niveau des fraudes ?
12:29Après, est-ce que c'est un bon agent ou un bon bot
12:32ou est-ce que c'est un mauvais ?
12:33Et je pense qu'avec le commerce agentique,
12:36il va y avoir de plus en plus de changements.
12:37Parce qu'on va être soit en train de taper,
12:39soit en train de parler à son agent.
12:43Achète-moi une télé pour le mois prochain.
12:47La question, c'est est-ce que demain, on veut changer ?
12:51En fait, non, je n'ai plus confiance en cette marque.
12:53Je me suis trompé.
12:54Donc, il va y avoir un effet ou une fenêtre de temps
12:59dans laquelle je pense qu'il va y avoir des changements.
13:02J'ai offert un cadeau,
13:02mais en fait, ma femme a offert le même en même temps.
13:04Donc, il faut en annuler.
13:06Donc, il y a toute cette notion de confiance
13:07et cette notion de traçabilité et de rapidité
13:12qu'il va falloir prendre en compte également.
13:14Tout ça est absolument vertigineux.
13:17Et Anthony Level ne va pas arranger notre cas.
13:20J'en ai peur.
13:20Vous êtes responsable de la stratégie
13:22chez Label4AI,
13:25qui est une deep tech française toute jeune,
13:27moins d'un an,
13:28étroitement liée au laboratoire de recherche français,
13:30Enria et CNRS.
13:31Vous êtes venu avec un petit chaton.
13:34Je voulais qu'on voit ce petit chat.
13:36Oui.
13:36Tellement mignon.
13:39S'il veut bien venir.
13:41Alors, on me dit qu'il est un petit peu en retard, le chat.
13:44Un petit peu timide.
13:44Oui, il va se présenter.
13:46On ne désespère pas.
13:46Donc, la mission de Label4AI,
13:48c'est détecter, tracer les contenus
13:51qui sont générés par IA,
13:53mais qui sont en fait manipulés
13:54par des intelligences artificielles.
13:56C'est ça ?
13:56Générés, entièrement générés,
13:58ou un petit peu manipulés par IA.
13:59C'est en partie lutter contre les deepfakes.
14:01En partie ?
14:02Pas seulement ?
14:03C'est aussi pour un devoir de transparence ?
14:05Exactement.
14:06Label4AI, en français ça veut dire
14:07l'identification pour l'intelligence artificielle.
14:10C'est au départ effectivement la réunion de chercheurs
14:12issus du CNRS et de l'INRIA
14:14et de professionnels de l'audiovisuel et du numérique
14:16qui se sont réunis
14:17et qui en fait se sont donnés pour mission
14:19de rendre finalement comme on fait
14:21pour distinguer le vrai du faux.
14:23Donc c'est une mission qui est presque
14:24une mission d'utilité publique.
14:26Et les enjeux sont absolument majeurs
14:27en termes de fraude,
14:29en termes de confiance en ligne,
14:30en termes d'arnaque au président,
14:31en termes de risques cyber boostés
14:33en ingénierie sociale ou pas.
14:34D'informations aussi.
14:35Il y a de désinformations évidemment.
14:37Donc les sujets sont absolument majeurs
14:39même jusqu'au cognitif
14:39puisqu'il y a des problématiques de santé
14:41qui vont arriver aussi.
14:41La confusion totale
14:42qui est pour les individus
14:43et déjà qui est une fatigue informationnelle énorme.
14:45En plus il faut savoir distinguer
14:46le vrai du faux.
14:48Comment est-ce qu'on fait aujourd'hui
14:49pour distinguer le vrai du faux ?
14:50Parce que moi je vois
14:51il y a plein de petites applications
14:52par exemple qui peuvent repérer
14:54si ce sont des vraies ou des fausses images.
14:55Alors je ne les conseille pas
14:56celles qui sont en ligne.
14:57Non, c'est vrai que ce n'est pas très fiable.
14:58Voilà, vous l'avez dit.
15:00Nous en fait on s'appuie sur la science.
15:01On s'appuie sur 20, 25 années
15:03presque de recherche publique française et européenne
15:06sur des domaines qui sont
15:07la stéganographie.
15:08La stéganographie c'est l'art
15:09de rendre un message invisible
15:10dans un contenu.
15:11C'est l'encre sympathique,
15:12l'encre au citron de l'époque
15:13c'est un bon exemple.
15:14Et puis en traitement du signal
15:15qui fait qu'en fait
15:17on va essayer de chercher
15:18des micro-signaux,
15:19des signatures,
15:20du bruit qui est propre
15:21à certaines IA.
15:21Par exemple un bruit que fait
15:22un capteur photographique
15:23n'est pas du tout le même
15:24qu'un bruit que fait une IA.
15:26On s'est même distingué
15:27et attribué en fait
15:28certains signaux et artefacts
15:30à certaines IA
15:30et dire ça, ça vient de Grock,
15:31ça, ça vient de ChatGPT,
15:33ça, ça vient d'ailleurs
15:33ça s'était manipulé
15:34par un outil open source.
15:35Donc on s'est aussi attribué
15:36la source de la génération IA.
15:38Alors, je ne sais pas
15:40si le chat arrive mais...
15:41Le chat est en route.
15:42Le chat est en cours,
15:42il est en route, il arrive.
15:43Il faudrait peut-être
15:44donner ses croquettes
15:45parce qu'il accélérerait un petit peu.
15:47Et donc là-dessus en fait...
15:49On les sort les croquettes.
15:49On les sort les croquettes.
15:51Et donc tout le défi en fait
15:52consiste à passer en fait
15:53de la recherche...
15:55Ah regardez !
15:55On va essayer de dire croquettes.
15:56Exactement et ça fonctionne.
15:57C'est le mot-clé.
15:58Alors ce que vous avez vu...
15:59Alors presque parce que là
16:00on n'a même pas eu le temps
16:00de voir ce qui se passait.
16:01Voilà.
16:02Donc là qu'est-ce qu'on voit ?
16:03Alors ce que vous voyez furtivement
16:04c'est une sorte comme une caméra thermique
16:06en fait qui vient révéler
16:07les traces d'IA
16:08que nous on a trouvées
16:09avec différents capteurs dédiés.
16:10Je vous en ai nommé quelques-uns.
16:12Quand c'est rouge, c'est pas bon.
16:12Quand c'est rouge,
16:13c'est là où on a le plus de traces,
16:14le plus de certitudes
16:15sur la présence d'IA,
16:17l'intervention d'IA dans cette vidéo.
16:18D'accord.
16:18Alors pourquoi en fait ?
16:20C'est une vidéo sur la 2.
16:21Donc c'est une vidéo
16:22pour laquelle on peut faire un prompt
16:23et ça vous fait une vidéo assez courte
16:24mais hyper réaliste.
16:26Ils sont de plus en plus réalistes.
16:26Google a sorti aussi VO3.
16:28C'est vraiment...
16:28On ne sait plus distinguer le vrai du faux.
16:30Mais là pourquoi ?
16:31Vous allez me dire
16:31mais pourquoi la vidéo
16:32elle n'est pas toute rouge
16:33puisqu'elle est entièrement générée par l'IA ?
16:34Mais oui.
16:34Eh bien je vous réponds.
16:36Je vous réponds qu'en fait nous
16:37tout le principe, tout le défi
16:43ça aurait été toute rouge cette vidéo
16:44si on l'avait analysée
16:45en sortie de générateur
16:46parce que là
16:46elle n'aurait pas été compressée,
16:47elle n'aurait pas été réencodée,
16:48elle n'aurait pas été torturée en ligne.
16:50Et donc nous ce qu'on essaie de faire justement
16:51c'est de développer des détecteurs
16:52qui résistent en fait
16:53à l'ensemble des altérations communes
16:55qu'on peut avoir en ligne
16:55et qui permettent finalement
16:57d'avoir quand même à la fin
16:58des traces
16:58et qui nous permettent de qualifier
16:59cette vidéo.
17:01On le fait sur l'image,
17:01on le fait sur les documents,
17:02on le fait sur l'audio,
17:04on le fait sur le live aussi bientôt
17:05de manière à ce que rien ne nous échappe.
17:07Pourquoi on est multimodaux ?
17:13Il y a des sous-titres.
17:14Donc pour être parfaitement complet,
17:15en fait nous on s'attaque
17:16en multimodal à la problématique.
17:18Alors les grands opérateurs
17:21d'intelligence artificielle,
17:23les big tech pour ne pas les citer nommément,
17:26elles travaillent aussi sur des outils
17:28pour labelliser les images,
17:30pour repérer les deepfakes ?
17:31Elles sont aussi très sensibilisées
17:33sur ce sujet de la confiance ?
17:34Absolument, déjà il y a une pression réglementaire.
17:36Ensuite ils ont plusieurs intérêts
17:38en fait à pouvoir distinguer
17:39eux le vrai du faux.
17:40Il faut savoir déjà qu'ils savent distinguer
17:41que ce qui sort de leur propre générateur
17:43aujourd'hui par exemple Google
17:44avec Saint-Heidi
17:45qui est son tatouage numérique
17:47en fait qui s'appelle comme ça
17:48et donc tout ce qui sort de Gemini,
17:49de VO3 ou des autres outils Google
17:51est tatoué, même du texte,
17:52c'est le tatoué, nous aussi.
17:53Mais ça vous allez les voir donc.
17:55Alors pour le moment effectivement
17:56le détecteur, ce détecteur
17:58il vient d'être mis à disposition du public
17:59en réalité et en fait il y a un vrai danger
18:01à mettre à disposition un détecteur au public
18:02c'est qu'il peut être testé justement
18:03par le public
18:04et que certaines personnes
18:06peuvent essayer de voir quels sont ses secrets
18:08et essayer d'imiter finalement
18:09la marque de Google
18:10ou de la supprimer.
18:12Donc il y a un vrai défi
18:13en termes de sécurité et de robustesse.
18:14Alors ils ont sorti aussi ce détecteur
18:16parce qu'ils ne souhaitent pas
18:17se réentraîner sur des images synthétiques.
18:19Vous savez les modèles de génération
18:21ont tendance à dégénérer
18:22s'ils s'entraînent trop sur des synthétiques.
18:23Donc ça leur fait un avantage concurrentiel
18:25puisque c'est les plus avancés.
18:27Puis ça permet d'éviter de se piquer
18:28aussi les images ?
18:29Alors ça je pense que oui
18:31c'est possible qu'ils continuent
18:32à se les piquer.
18:33Mais voilà ça permet d'attribuer en fait
18:34presque entre guillemets
18:37une propriété sur la chose
18:38et encore ces pouvoirs-là
18:39de distinguer le vrai du faux
18:40qui est un pouvoir presque démurgique demain.
18:42Et ça c'est de nouveau concentré
18:44potentiellement dans les big tech.
18:45Nous on représente justement
18:46l'alternative souveraine européenne
18:47à cette appropriation
18:49dans les big tech.
18:50Des questions de votre côté
18:52sur cette nouvelle technologie ?
18:54Je vois l'application directement
18:56dans les paiements,
18:56dans le secteur dans lequel je travaille
18:57parce que quand on va sur des sites web
19:00pour faire des achats
19:01on voit il y a souvent un captcha
19:02pour vérifier justement
19:03que c'est un véritable humain.
19:07Je le vois vraiment aussi dans le cas
19:09est-ce que ça va être un vrai bot ?
19:11Est-ce qu'on va pouvoir faire
19:12ce commerce agentique
19:14et s'assurer derrière
19:15ou filtrer au maximum
19:17et éviter les cas de fraude notamment ?
19:20Alors je fais une remarque là-dessus
19:21c'est que nous on n'est pas capable
19:23d'identifier les bots
19:25mais on fait de l'analyse morphologique.
19:26C'est-à-dire ce que produit
19:27par contre un bot
19:27ou un générateur
19:28là on est capable de l'analyser
19:29mais pas l'automation.
19:31Vous vouliez réagir sur cette technologie ?
19:36Il faudra l'expliquer aussi dans vos cafés
19:37qui est responsable
19:38parce que là on est en plein dedans en fait.
19:40Carrément.
19:41Je pense qu'il est d'autant plus important
19:44de pouvoir donner aussi des outils concrets
19:46aux salariés
19:48pour pouvoir prendre des décisions
19:50pour savoir comment est-ce qu'ils avancent.
19:53Aujourd'hui ils se forment individuellement.
19:56C'est ça on trouve des petites applications ?
19:58On utilise les outils qu'on trouve
20:02on ne sait pas vraiment comment on se situe
20:05par rapport au cadre qui existe dans l'entreprise
20:07donc c'est important de parler de ça.
20:10On peut parier sur le fait que ça va se déployer
20:12puisque vous avez réalisé une levée de fonds ?
20:14Oui on a réalisé une levée de fonds
20:15d'un million d'euros au début d'été dernier
20:17auprès de Business Angels
20:18pour accélérer sur le marché français européen
20:21voire mondial.
20:23Merci beaucoup Anthony Levelle
20:25qui est responsable de la stratégie
20:26chez Labelfort AI
20:27Roxana Rugina
20:29qui est directrice exécutive d'Impact AI
20:31et Grégoire Toussaint
20:32pour Edgarden & Company
20:34merci à vous de continuer à nous suivre
20:36parce que là maintenant
20:37on va s'intéresser encore à un sujet de confiance
20:38les mobiles et les cyberfraudes.
20:40on va s'intéresser à un sujet qui a très bien
20:55J'ai fait un sujet de confiance
Commentaires

Recommandations