- il y a 22 heures
Avec l’IA générative, la recherche en ligne change de dimension : les moteurs ne se contentent plus de proposer des liens, ils produisent des réponses. Une évolution qui pose une question centrale : comment reconnaître et rémunérer le travail des médias dont ces réponses s’inspirent ? Qwant lance une expérimentation inédite avec plusieurs éditeurs pour tenter d’y répondre.
Catégorie
🗞
NewsTranscription
00:04Olivier Bécassi, c'est le nouveau directeur général de Qwant depuis son rachat par Octave Clabas,
00:10c'était en 2023, soit dix ans après son lancement, et l'ambition de devenir une alternative au moteur
00:16de recherche américain. Alors le projet a connu beaucoup de déconvenus, est-ce que l'ambition
00:22est toujours la même Olivier ? Bonjour, alors effectivement l'ambition a un peu changé,
00:26je pense que vouloir être une alternative à Google et mesurer cette taille-là n'a pas de sens,
00:32et je crois que c'est une promesse qu'on ne peut pas atteindre. A l'inverse, avoir un marché
00:36de la recherche
00:37en ligne où il n'y a qu'un acteur dominant et pas d'autres alternatives proposées ne fait pas
00:42de sens,
00:43et notamment compte tenu du fait que certains utilisateurs soit ont une approche où ils veulent
00:49contribuer, c'est le modèle Ecosia ou le modèle Lilo qui fait partie de Qwant maintenant, en reversant
00:53une partie des revenus publicitaires à des associations ou à des causes écologiques pour Ecosia,
00:57soit en fait l'utilisateur veut que ses données personnelles restent de son côté, ne soient pas exploitées
01:04et ne génèrent pas de profit publicitaire, et c'est ça le modèle de Qwant. Et ça, ce modèle-là,
01:09il est pérenne,
01:10il doit être développé et il répond effectivement à un besoin des consommateurs.
01:14Alors, ce monde de la recherche sur le web a quand même pas mal été bousculé avec l'arrivée des
01:20IA génératifs.
01:21Qu'est-ce que ça change pour le moteur de recherche français ?
01:24Vous avez raison, c'est une vraie opportunité, parce que là où on a connu depuis 20 ans finalement
01:29des résultats de recherche qui étaient une liste de 10 liens bleus, pour lesquels 70% des gens cliquent sur
01:35les 3 premiers,
01:35on a désormais une possibilité d'avoir plusieurs formes de cette recherche et d'avoir des réponses
01:42et un accompagnement de l'utilisateur qui fait qu'il trouve l'information plus rapidement, plus efficacement.
01:48Et effectivement, l'IA générative nous a permis de développer sur notre site un module qui va vous donner une
01:53réponse
01:53quand vous voulez rapidement accéder à la question et avoir un niveau de détail qui va être progressif en fonction
02:00de votre navigation.
02:01Alors, c'est aussi ce qu'on retrouve sur les autres moteurs de recherche, on est d'accord ?
02:05En quoi ça constitue une opportunité ? Est-ce que vous pensez que ce marché de la recherche en ligne
02:09peut être vraiment chahuté
02:11et générer de nouvelles positions ?
02:14Alors, d'abord, il redéfinit le contrat un peu avec les utilisateurs qui, là où ils étaient sur un moteur
02:20de recherche
02:21pour repartir le plus vite possible vers un site, ils y passent un temps différent.
02:24C'est vrai.
02:25La deuxième chose, et vous avez raison, tout le monde peut le faire, maintenant on a deux choses.
02:29D'abord, le module équivalent chez Google, AI Overviews, n'a pas été lancé en France pour l'instant,
02:33probablement compte tenu des sujets de droit voisin passés pour Google.
02:38Donc voilà, on a l'acteur leader qui ne l'a pas fait.
02:40Et la deuxième chose, c'est que nous, on a beaucoup travaillé sur arriver à quelque chose d'aussi fiable
02:44que possible
02:45parce qu'on part de la recherche, parce qu'on qualifie les sources, parce que l'IA...
02:50Comment ça fonctionne ? Comment fonctionnent ces réponses ? C'est les réponses flash ?
02:53Oui, tout à fait.
02:54Donc effectivement, nos réponses, on commence par identifier les documents qui sont pertinents,
02:57de façon moteur de recherche.
02:58Donc je tape une recherche, on va identifier les dix documents pertinents,
03:03mais là, ce qu'on va faire en plus, c'est qu'on va accéder au contenu,
03:05et dans chaque document, on va sélectionner le paragraphe qui est pertinent par rapport à la requête.
03:10D'accord.
03:10On va classer ces extraits de documents, les uns par rapport aux autres, pour éviter des hallucinations,
03:16et on va ensuite rédiger une réponse avec un LLM.
03:18On n'appelle le LLM que vraiment à la fin, pour rédiger la réponse.
03:22Tout le travail est fait en amont, là aussi, de sorte d'avoir une réponse aussi bonne que possible.
03:28Alors, ça transforme aussi les consultations des sites Internet,
03:32puisqu'on ne s'en va plus tout de suite sur le site, par exemple, d'un média,
03:37et donc vous travaillez, vous, à une expérimentation avec ces médias,
03:40autour de l'IA génératif. Pourquoi ? Parce que ça change complètement leur business model.
03:45Si on ne va plus sur les sites référents des grands médias,
03:48c'est une perte d'audience, de revenus qui est considérable.
03:51Comment est-ce que vous travaillez avec eux ?
03:52Alors, ce qu'on voit, c'est qu'on y va différemment.
03:54On n'y va plus pour un passage furtif qui était juste chercher une réponse,
03:58on y va toujours pour faire du fond, parce qu'on ne peut pas remplacer un article de fond
04:02en trois lignes de résumé.
04:03Ceci dit, il est vrai que j'ai pris conscience que les médias étaient extrêmement préoccupés par cela,
04:09et donc, quand on a négocié nos accords de droit voisin l'an dernier,
04:13je me suis dit que c'était le moment pour aborder ce sujet-là,
04:16et aborder de façon constructive et transparente.
04:18Et donc, on a proposé à tous les éditeurs de presse ou médias qui le souhaitaient,
04:22de venir se joindre à nous pour qu'on leur explique,
04:24comme je l'ai fait tout à l'heure sommairement,
04:26exactement comment ça marche, comment on choisit le contenu,
04:29quelles règles on met pour que ce contenu soit pris de façon homogène,
04:33qu'on ne prenne pas un bout de phrase pour l'interpréter comme il ne faut pas,
04:36qu'on travaille ensuite sur comment les sources sont présentées,
04:39parce qu'on est convaincu chez Quant que la source crédibilise l'IA,
04:44et que pour avoir une réponse fiable, il faut une source fiable,
04:47puisque l'IA n'est pas magique,
04:48et donc, si vous lui donnez en entrée quelque chose qui est approximatif,
04:51elle sortira quelque chose d'approximatif ou de faux.
04:54Et donc, on s'est dit, on va travailler ensemble sur ce modèle,
04:56on ouvre le capot, on vous montre comment ça fonctionne,
04:58comment votre contenu est utilisé,
04:59et on va travailler ensemble à un modèle économique.
05:01Est-ce qu'aujourd'hui, il n'y a pas besoin d'avoir d'autorisation de leur part
05:03pour utiliser leur contenu, en faire des résumés à travers des LLM ?
05:07Il y a des positions juridiques différentes de part et d'autre,
05:09je crois qu'on est un peu dans le flou.
05:11Nous, notre conviction chez Quant, c'est que le contenu a une valeur,
05:16qui est proportionnelle évidemment à l'usage qui en est fait,
05:18mais il faut qu'on trouve un modèle vertueux,
05:20et il est inutile de passer en force comme ça s'est fait dans le passé,
05:23et il faut que ça passe par la négociation et par la transparence.
05:27Je pense que ce qui est intéressant, c'est que l'éditeur...
05:29En fait, vous voulez faire des médias, des alliés ?
05:31Oui, mais parce que...
05:32Contrairement aux autres grandes plateformes numériques
05:35qui sont vraiment sur un rapport de force.
05:38Oui, parce que, une fois encore, c'est la clé d'une IA fiable,
05:41et parallèlement, le modèle de Quant est un modèle vertueux.
05:45Vertueux vis-à-vis de ses utilisateurs, on ne prend pas vos données,
05:48et donc, vertueux vis-à-vis des éditeurs, on ne prend pas vos contenus.
05:51Et donc, on travaille ensemble sur cela.
05:53Et donc, c'est ça la vision long terme de Quant,
05:55c'est d'être capable, effectivement, de trouver ce modèle durable entre nous.
05:59C'est une expérimentation sur neuf mois.
06:02Qu'est-ce que vous en attendez à la sortie, très concrètement ?
06:05Plusieurs choses.
06:05D'abord, trouver la bonne façon de valoriser les sources qui sont utilisées.
06:11Trouver un modèle économique avec les éditeurs qui fonctionnent pour eux et pour nous.
06:15Donc, c'est sur le partage de revenus publicitaires ?
06:17Exactement.
06:18Et puis, continuer à enrichir de fonctionnalités qui font sens pour l'utilisateur,
06:23parce qu'elles lui permettent d'accéder à cette information de façon aussi claire que possible,
06:27et que tout le monde, à la fin, ne se réfugie pas simplement sur ChatGPT en posant des questions sans
06:32pouvoir les challenger.
06:33En parlant de ChatGPT, le LLM que vous utilisez, j'ai appris que c'était ChatGPT.
06:37Non, c'est Mistral.
06:38Ah, vous avez basculé ?
06:39Oui, on a prototypé sur ChatGPT parce que quand on a commencé, ils avaient un temps d'avance.
06:45Et quand on est souverain, on a basculé sur Mistral.
06:49Donc, plus de dépendance à OpenAI, vous nous dites, et plus de dépendance à Bing non plus sur la partie
06:54recherche.
06:54Donc, ça, c'est quasiment fini.
06:56Microsoft, Bing ?
06:57Tout à fait.
06:57Donc, on a développé notre propre technologie depuis la reprise par Octave,
07:02qu'on a d'ailleurs co-développé avec Ecosia, puisqu'on a fondé une entreprise commune.
07:08Aujourd'hui...
07:08Ecosia qui est un moteur de recherche allemand.
07:11Tout à fait, mais qui est aussi présent en France.
07:13Et non, le principe est de reverser une partie de ses revenus publicitaires pour planter les arbres.
07:19Et effectivement, on développe cette technologie.
07:20Et le but, c'est qu'en France et en Allemagne, on soit quasiment indépendant à la fin de l
07:24'année.
07:25D'accord.
07:25D'ici la fin de cette année, la 2026.
07:28J'ai employé le mot revenu.
07:32Comment fonctionne ce modèle économique ?
07:34Il n'a jamais été très simple pour Quant.
07:37Sur quoi vous misez aujourd'hui pour que ça fonctionne ?
07:40Alors, la nouveauté, c'est que désormais, Quant a deux jambes.
07:43Une jambe publicitaire sur son modèle B2C, donc modèle d'audience rémunéré par la publicité.
07:48Classique, oui.
07:49Voilà.
07:49Alors, cette partie-là est désormais profitable pour Quant.
07:53Elle ne l'était pas, elle l'est désormais.
07:54Et puis, une autre partie qui est un modèle B2B, où on a développé notre propre technologie, donc avec Ecosia,
08:00qu'on vend à d'autres modèles de recherche alternatifs.
08:02Et par ailleurs, qu'on propose à tous les acteurs de l'IA qui ont besoin d'avoir un accès
08:06au contenu frais du web.
08:08Puisque là aussi, l'IA, elle a besoin de cela.
08:11C'est-à-dire que vous leur vendez ? Parce qu'aujourd'hui, il suffit qu'ils aillent sur Quant
08:13pour récupérer.
08:14Non, alors, c'est une API qu'on fait, qui permet à leur modèle d'accéder à cette information
08:20pour avoir des informations extrêmement fraîches, pour construire des modèles de règle.
08:23Donc, c'est une API, en fait, qui permet d'avoir un moteur de recherche au sein de son entreprise.
08:28Exactement.
08:28Quand on fait de l'IA en inférence, c'est ça ?
08:31Tout à fait.
08:31Et c'est l'enjeu parce qu'aujourd'hui, ce modèle n'existe pas chez Google.
08:36Il l'a été il y a plusieurs années, même si c'est l'objet d'un des remèdes décidés
08:40par le juge américain récemment.
08:41Et puis, Bing a donc décidé, puisque c'est ça qu'on a subi aussi, de retirer son API du
08:47marché
08:47parce que la stratégie est claire et que c'est un actif extrêmement déterminant pour l'IA.
08:54Donc, d'où l'urgence, la nécessité d'être tout à fait autonome en matière de technologie et de business
08:59model.
09:01Mais ce n'est pas forcément un argument aujourd'hui, la souveraineté, l'autonomie stratégique pour le grand public.
09:07Enfin, je ne sais pas.
09:08Pour le grand public, vous avez raison.
09:11Ce n'est pas encore décisif.
09:13Aujourd'hui, ceux qui viennent sur Quant, sur Lilo, sur Ecosia, c'est pour la privacy ou pour le modèle
09:20vertueux.
09:21Mais ça l'est pour les entreprises.
09:23On a beaucoup, depuis qu'on a communiqué sur cette API de recherche, on a beaucoup d'appels entrants en
09:26France et en Allemagne d'entreprises
09:27qui veulent construire des modèles d'IA avec des données de la même façon qu'ils font le choix d
09:33'utiliser Mistral,
09:33comme nous on l'a fait.
09:35Ils souhaitent avoir une API de recherche qui soit souveraine et qui soit accessible dans le temps.
09:39Ce qu'on a vécu avec Bing qui, au bout de dix ans de syndication et d'offres, se retire
09:43du marché parce qu'il y a une autre stratégie,
09:46effectivement, c'est quelque chose qui est dangereux pour l'industrie et qui, pour le coup, résonne en B2B.
09:50Merci beaucoup, Olivier Abécassis, d'avoir été avec nous dans Smartech et de nous avoir présenté la nouvelle stratégie pour
09:56Quant.
09:56On vous souhaite le meilleur, bien évidemment.
09:58Je rappelle que vous êtes le directeur général de Quant.
10:01C'est l'heure de notre grande interview avec la sénatrice qui s'empare d'une mission autour de l
10:06'alignement de l'IA.
10:07On va voir de quoi il en retourne.
10:09Sous-titrage Société Radio-Canada
Commentaires