SMART TECH - Emission du lundi 13 novembre

  • l’année dernière
Lundi 13 novembre 2023, SMART TECH reçoit Alain Garnier (Président fondateur, Jamespot) , Jean-Noël De Galzain (président d’Hexatrust) et Alain Staron (président cofondateur, Artifeel)

Category

🗞
News
Transcript
00:00 Bonjour à tous, dans cette édition c'est le grand débrief de l'actu.
00:11 On va s'intéresser à ce coup de frein à la loi française pour réguler et sécuriser
00:14 Internet.
00:15 On va évidemment aussi parler de GROC, cette IA générative nouvelle interface qui débarque
00:21 sur la plateforme d'Elon Musk, la plateforme X.
00:24 Et puis Facebook et Instagram, si vous êtes utilisateur, il va falloir quand même choisir
00:28 entre accepter des pubs ciblées ou bien payer.
00:31 Grand changement dans nos modèles économiques d'Internet.
00:34 Enfin, les ransomware, la contre-attaque s'organise au niveau international.
00:39 Voici parmi les sujets qui seront abordés aujourd'hui dans Smartech.
00:43 Et bien j'ai la French Tech en plateau pour débriefer l'actu tech.
00:51 Trois entrepreneurs, Alain Garnier, président fondateur de Jamespot, donc une plateforme
00:56 tricolore qui ose s'attaquer au sujet des plateformes collaboratives, des plateformes
01:00 de travail et aussi des réseaux sociaux d'entreprise.
01:03 Alain Staron, président fondateur d'Artifil, vous faites briller cette innovation autour
01:09 de l'IA dans la sécurité physique avec Artifil.
01:12 Et Jean-Noël Degasin, président d'ExaTrust, j'ai envie de dire porté-tandard de tout
01:16 l'écosystème français, européen autour de la cybersécurité et du cloud de confiance.
01:22 Bonjour à tous les trois.
01:23 Très heureux de vous avoir en commentateur.
01:25 La loi française pour réguler et sécuriser Internet semble avoir un petit plan dans l'aile.
01:32 En tout cas, il y a une sorte de coup d'arrêt.
01:33 Elle a été adoptée le 17 octobre et puis depuis, plus rien.
01:37 On l'attend pour un passage en commission mixte paritaire et cela n'arrive pas.
01:42 C'est-à-dire que cette loi finalement n'arrivera qu'après 2023, en 2024.
01:47 C'est fort probable et c'est surtout sans doute lié à des messages, des signaux envoyés
01:53 de la part de la Commission européenne qui a un peu haussé le ton.
01:57 Je ne sais pas si c'est votre avis.
01:58 Est-ce que cette loi française allait un petit peu trop loin par rapport à ce qu'attendait
02:02 Bruxelles ?
02:03 Alain ?
02:04 Je peux commencer ?
02:05 Alors les signaux sont clairs.
02:06 C'est carrément une lettre officielle.
02:07 Donc là, on n'est pas juste dans les signaux de fumée avec justement les pigeons voyageurs
02:17 de l'Europe.
02:18 En fait, il se trouve que la France a pourtant été celle qui a amené cette loi au niveau
02:23 européen.
02:24 C'est quand même à mettre au crédit justement un peu de la volonté française, en particulier
02:28 de sécuriser, mais également l'action de la souveraineté.
02:30 Et le problème par contre, c'est qu'on n'a pas totalement respecté un peu le calendrier.
02:34 Et donc là, c'est plutôt des fautes de quart, tout simplement, j'en veux dire administratives
02:37 de délai dans lequel il faut prévenir l'Europe.
02:40 Sinon, il y a un petit côté impolitesse, on va dire.
02:43 Et puis un deuxième sujet, c'est que, et ça, Jean-Noël Barraud d'ailleurs l'avait
02:47 rappelé à l'Assemblée générale, il ne fallait pas aller trop loin parce que sinon
02:51 il s'agit de transposer un droit européen.
02:54 Donc finalement, aller trop loin, ce serait avoir l'Europe des 27 Europes.
02:57 Et là, justement, l'Europe nous arrête en disant non, là, ce n'est pas dans le package
03:01 général.
03:02 Plusieurs problèmes en fait.
03:04 Parfois, on va un petit peu plus loin que ce que prévoit le DSA, donc le règlement
03:09 européen sur les services numériques.
03:11 Et puis parfois, on confond aussi actions de l'État et d'autorités administratives.
03:15 Moi, je pense qu'on a un sujet de fond autour des données.
03:19 De toute façon, cette loi, elle a dû aller assez loin sur les données parce qu'on sait
03:23 que la France est très en pointe sur le fait d'être, en fait, de défendre un modèle
03:29 numérique dans lequel on peut reprendre la main sur nos données.
03:31 C'est un enjeu mondial.
03:33 Ce n'est pas seulement en France.
03:34 J'étais au Canada il y a deux semaines avec le ministre de la cybersécurité et
03:40 du numérique au Canada, puisqu'il y a un ministère dédié à ça.
03:44 C'est un sujet partout dans le monde, ce contrôle sur les données.
03:48 Et donc, il y a ce que marque cette situation finalement, au-delà de l'anecdote elle-même,
03:54 parce que ça se réglera, c'est qu'il y a un désaccord profond sur la stratégie
04:00 autour des données.
04:01 Jusqu'où il faut aller, jusqu'où on met la barre dans le positionnement par rapport
04:08 aux lois extraterritoriales américaines.
04:10 On se souvient qu'avant l'été, il y avait eu une tentative de passer rapidement le nouveau
04:16 projet de loi transatlantique d'échange sur les données, un nouveau framework, avec
04:23 une nouvelle responsable assistante de la commissaire européenne de Verstager, qui
04:30 venait précisément d'un GAFAM, avec un parcours très emprunt sur les GAFAM.
04:40 Il y a quand même un problème de fond, on le voit récemment avec Amazon.
04:44 Au sein de la commission européenne, entre les Etats membres, c'est ça que vous nous
04:47 dites.
04:48 Je pense qu'il y a un désaccord sur la stratégie autour des données.
04:51 Et du coup, quand la France, qui est très regardée sur ces sujets-là, fait un projet
04:57 de loi dans lequel, il faut le dire quand même, il était venu à l'université d'été
04:59 d'Exatrust, Jean-Noël Barreau, il l'avait dit, je ne peux pas non plus aller trop loin
05:05 et prendre tous les amendements que demandent les députés et les parlementaires, parce
05:10 que sinon je vais être hors la loi européenne.
05:12 Donc il avait prévenu quelque part.
05:14 Donc on se retrouve exactement face à la situation.
05:17 En fait, il avait déjà reçu un courrier de Thierry Breton, on ne le savait pas à
05:20 l'époque, mais au mois d'août, on lui avait déjà tiré la sonnette d'alarme.
05:25 Mais je pense qu'on ne peut pas soupçonner Jean-Noël Barreau de ne pas essayer d'avoir
05:29 une position qui reste relativement audacieuse quand on voit la situation européenne aujourd'hui
05:34 sur ce sujet des données.
05:36 Donc il va falloir trancher aussi, avoir une position européenne sur les données.
05:39 Alors on en a quand même une justement, le DSA, c'est une position européenne commune.
05:45 On a trouvé cet accord.
05:46 Mais là, la France veut aller plus loin en fait.
05:50 On va peut-être un peu trop vite.
05:52 Ou l'Europe ne va pas assez vite, je ne sais pas Alain.
05:54 Il y a une différence de tempo.
05:56 Clairement, l'Europe va pas assez vite.
05:59 C'est plutôt que la France va trop vite.
06:01 On ne va de toute façon pas assez vite les uns et les autres.
06:03 De notre point de vue français.
06:04 Donc il faut aller très vite.
06:05 Maintenant, il y a un DSA, il y a une loi qui est sortie, enfin en tout cas il y a un
06:11 texte européen qui est sorti ou en train de sortir.
06:13 On ne peut pas aller plus vite que la musique non plus parce que sinon on casse l'Europe.
06:16 Et à mon avis, l'Europe en tant qu'entièreté est plus forte qu'un intérêt particulier
06:22 d'un pays qui voudrait aller plus loin.
06:24 Il vaut mieux qu'on avance moins loin tous ensemble que plus loin séparément parce
06:28 qu'on l'a tous vu depuis l'Irlande, l'Europe fragilisée, l'Europe désorganisée, c'est
06:32 une Europe fragilisée qui fait la barbelle à tout le fameux oligopole.
06:37 Et puis parfois ce sont des intentions politiques qu'on peut estimer louables mais on sait
06:41 très bien que dans la concrétisation, dans la mise en œuvre, ça ne va pas être possible.
06:46 Il y a ça aussi.
06:47 Mais ça en l'occurrence, la volonté politique peut être source d'innovation.
06:52 Si le politique dit "je veux qu'on puisse contrôler toutes les identités des gens
06:57 qui vont sur les sites pornos", il va falloir qu'on trouve une solution.
07:00 Et moi je fais confiance à tous les ingénieurs de la terre, en particulier en France, ils
07:03 sont plutôt bien calibrés, pour trouver des solutions.
07:06 Donc moi je ne m'arrête pas à "on veut quelque chose qui n'est pas possible".
07:09 Ce n'est pas vrai.
07:10 Rien n'est impossible.
07:11 Alors des solutions technologiques, il y en a en l'occurrence dans ce domaine, mais
07:14 la problématique c'est comment articuler ces solutions technologiques avec le respect
07:20 du droit à la vie privée, des droits fondamentaux des citoyens sur Internet ?
07:24 Liberté, protection, liberté, sécurité, c'est le débat qu'on a.
07:28 Et puis il faut aussi reconnaître que si on prend par exemple l'action du DSA, en fait
07:32 la question de la vie privée, elle est quand même vue de manière différente.
07:34 Je pense que sous l'angle des données, le côté plutôt B2B entreprise, là il y a
07:39 effectivement peut-être un consensus plus général, mais sur les questions des mœurs,
07:43 là il y a aussi une différence.
07:45 Et il faut accepter je pense que l'Europe peut être aussi un peu différenciée.
07:48 Donc ce qui est difficile c'est de trouver à la fois, aller tous dans le même sens,
07:52 effectivement je suis d'accord, on sera plus fort dans l'Europe, pas non plus avoir
07:56 des gens qui sont trop en avance et d'autres qui sont trop en retard.
07:59 Et là du coup on retrouve le problème qu'on a eu avec les paradis fiscaux, c'est-à-dire
08:02 par exemple on aurait l'Irlande qui dirait "attendez si vous venez chez moi il n'y a
08:05 aucun problème, vous êtes finalement gars, femme, continuez votre vie".
08:09 Donc en fait il faut aussi qu'on sorte de ça, c'est-à-dire que les mauvais élèves,
08:12 mais il ne faut pas non plus qu'il y en a qui fassent trop de zèle.
08:14 Donc effectivement c'est un peu compresser le message de l'Europe, qui est un peu la
08:17 façon de s'en sortir par le haut.
08:19 Mais pourtant on connaît quand même cet exercice de mise en application, enfin en
08:23 tout cas d'adaptation de notre droit aux directives européennes, on le connaît cet exercice.
08:28 Non seulement on le connaît, mais si on regarde quand même en matière, en tous les cas dans
08:33 le domaine de la data, de la privacy, ce qu'on appelle la privacy, donc le respect de la
08:37 vie privée, et sur la partie résilience, cybersécurité, la France non seulement elle
08:42 connaît les règles, mais elle est l'inspirateur quand même d'un modèle européen.
08:46 Donc moi je pense qu'aujourd'hui on assiste quand même à une divergence très importante
08:55 sur jusqu'où il faut mettre le curseur sur le respect de la vie privée.
08:59 Il y a aussi une bataille, on ne va pas se leurrer là-dessus, il y a une espèce de
09:04 bataille entre la France et l'Allemagne sur qui prend le leadership sur ces sujets-là
09:08 avec des positions qui sont différentes, notamment…
09:11 Y compris sur la partie business.
09:13 Mais bien sûr sur la partie business, bien sûr, avec je pense les Allemands qui voient
09:18 une opportunité sur le cloud et nous qui sommes assez en pointe sur tout ce qui est
09:22 IA, cybersécurité ou quantum, notamment ordinateur quantique.
09:27 Et donc voilà, il faut que tout ce monde discute et on est dans un monde nous de l'innovation
09:33 qui a tendance à aller très très vite.
09:35 On oublie parfois que DSA, DMA, ça reste très abstrait pour quelqu'un qui se préoccupe
09:40 du harcèlement à l'école, des problèmes très basiques de la vie quotidienne.
09:47 Et donc c'est normal que…
09:49 Et puis là c'est quand même, je faisais référence au directif, mais là c'est quand
09:53 même un règlement, donc de toute façon on n'a pas le choix.
09:55 Mais oui, il va falloir l'appliquer, tout le monde paraît de la même façon.
09:58 Exactement.
09:59 Moi je vois le verre plutôt à moitié plein.
10:00 Venant de là où vient l'Europe, très belle étape.
10:03 Et tant pis si les Français doivent attendre un peu plus.
10:06 Tant pis, il faut un moment.
10:08 Allez, votre avis sur GroKo, ce nouveau chatbot qui va arriver sur X, la plateforme d'Elon
10:14 Musk.
10:15 Je dis qu'il va arriver parce que pour l'instant il n'y a que quelques personnes qui peuvent
10:19 le prendre en main.
10:20 A priori quand même pour pouvoir jouer avec, il faudra passer à un abonnement premium
10:25 plus et donc ça quittait de 16 euros par mois.
10:29 Il est américain ?
10:30 Oui.
10:31 Ça démarre aux Etats-Unis ?
10:32 Ça démarre aux Etats-Unis, tout à fait.
10:35 On parlera aussi du modèle économique.
10:37 Qu'est-ce que ça veut dire pour le modèle économique de la plateforme ?
10:39 Mais déjà sur le principe, Elon Musk qui nous explique que l'IA c'est hyper dangereux,
10:45 les IA génératives encore plus, mais quand même lance sa propre solution en disant qu'en
10:52 plus c'est mieux que ChatGPT parce que ça va permettre d'avoir des résultats au prompt
10:57 qui sont actualisés avec toutes les données en temps réel qui sont publiées sur X.
11:01 Vous dites super, bonne nouvelle ou oulala ? Attention, danger.
11:05 Est-ce qu'aujourd'hui on a envie de mettre 10 euros par mois ?
11:08 Est-ce qu'on sera obligé ? En tout cas, bonne ou mauvaise nouvelle, ce n'est pas le sujet,
11:13 par contre ça montre vraiment plusieurs choses.
11:15 Sur le personnage Elon Musk, grand hypocrite, il avait quand même dit 6 mois de moratoire,
11:20 c'est le temps qu'il a mis pour sortir son truc.
11:22 Ça je trouve que c'est du non.
11:23 C'est pas du hypocrisie ça alors ?
11:24 Voilà, mais en tout cas, je le mets sur le terrain éthique, ça ramène aussi à ce
11:30 personnage sur lequel il faut un petit peu lui enlever des fois les grands projecteurs
11:33 qu'on lui met.
11:34 Le numéro 2 par contre, hyper intéressant.
11:35 On n'arrête pas de dire justement que l'IA, un des points clés, c'est justement qu'il
11:39 ne soit pas capté par quelques acteurs parce que justement les IA vont amener une culture.
11:43 Pourquoi est-ce qu'Elon Musk, un des éléments au-delà du business, c'est que lui dit "Cha
11:48 JPT il est trop woke".
11:50 Intéressant.
11:51 Donc en fait, lui dit "moi j'en ai marre qu'on réponde à des choses positives, polies,
11:56 sur les minorités.
11:57 Non, moi mon groc il va être un peu…
11:59 Il va apporter des réponses sexy, nous dit.
12:03 Ah sexy, il peut sortir des sentiers battus sans problème".
12:06 Et lui je pense que la question d'ailleurs, il n'y a pas de limitation dans la pensée
12:09 dans son mode libertaire.
12:11 Donc ça prouve en tout cas un truc clair, c'est que les modèles d'IA de toute façon
12:15 auront cette question culturelle et que donc on a besoin d'avoir des modèles culturels
12:19 diversifiés.
12:20 Et dernier point.
12:21 Notamment européens.
12:22 Et dernier point sur l'argent.
12:24 Aujourd'hui effectivement, un modèle d'IA quand il est utilisé par les gens, il coûte
12:29 effectivement plutôt presque 20-30 dollars par mois en coût d'infras.
12:34 Pour se rendre compte qu'en fait c'est très dispendieux aujourd'hui l'IA.
12:37 Donc en fait même en le vendant à 16 dollars, ça reste encore pour lui un pari d'un point
12:42 de vue business model, mais ça prouve en tout cas que l'IA va être une technologie
12:47 qui va être soit ultra subventionnée par ceux qui ont beaucoup d'argent, soit qui
12:52 va être assez chère par rapport à son usage.
12:54 Mais c'est normal parce que l'intelligence, ça coûte.
12:56 Oui mais ça veut dire des usages professionnels.
12:59 Donc ça va être quoi ? Les professionnels ? Les fermes de robots qui vont accéder finalement
13:04 à cette IA générative ? Enfin je veux dire, qui est la cible ? Qui est le public ?
13:08 Moi je pense que l'IA génératique, ça reste une techno.
13:11 Donc moi ça ne m'intéresse pas.
13:15 Le contenu de ce que dit Elon Musk en tant que tel sur le sujet ne m'intéresse pas
13:19 beaucoup.
13:20 On verra si elle est compétitive etc.
13:22 Et on choisira les solutions techniques appropriées.
13:24 Par contre, moi j'avais noté, parce que j'aime bien ce que tu dis, on défend cette
13:30 idée quand même que l'IA, ça va véhiculer une culture, c'est civilisationnel en fait
13:37 quelque part à terme.
13:38 Et moi j'ai relevé une petite phrase qui m'a beaucoup plu, qui vient d'une jeune
13:45 doctorante sénégalaise qui est dans la santé.
13:49 Et elle, elle veut utiliser l'intelligence artificielle pour prévenir les risques de
13:55 cancer et certaines maladies très graves.
13:59 Et elle dit la chose suivante, et ça je pense que c'est pas quelqu'un sorti de non pas,
14:05 c'est une jeune femme.
14:06 Elle dit, Fatou Leniang, elle dit "si nous n'avons pas de données africaines, nous
14:13 devons nous baser sur celles qui viennent d'Europe ou des Etats-Unis.
14:17 Mais nous ne pouvons pas prédire une maladie avec des données qui ne nous concernent pas."
14:24 Moi je pense que ça résume assez bien ce qu'on est en train de dire.
14:28 Donc quand est-ce qu'on va, au lieu de se préoccuper des frasques d'Elon Musk, quand
14:35 est-ce qu'on va là vraiment se dire "il nous faut des données pour produire nos
14:41 IA, on y va et on met le paquet dessus, tous dessus."
14:45 Il y a cette question effectivement de l'initiative européenne autour des IA génératives, comment
14:50 on fait pour rattraper le train qui est parti à mille à l'heure quand même.
14:53 Mais il y a aussi ce sujet d'une IA qui va être nourrie par ces contenus postés sur
14:59 Twitter avec beaucoup moins de filtres effectivement que les précédents.
15:03 Mais ça veut dire aussi que c'est un modèle qui est non figé.
15:05 C'est intéressant parce que Tchad GPT est figé à 2021, il n'est pas capable de répondre
15:09 à des questions d'actualité.
15:10 Là on a un modèle totalement différent.
15:12 C'est qu'une question de tuyau pour Tchad GPT.
15:14 On ouvre un robinet et ça va marcher.
15:16 On a parlé de deux choses différentes.
15:18 Mais ce n'est pas le modèle.
15:20 Tchad GPT ce n'est pas ce modèle qui a été choisi.
15:22 Ça a été choisi de sorte qu'on n'abîme pas, on ne transforme pas le grand modèle
15:27 de langage, on l'adapte en fonction des usages à des niveaux, des couches inférieures.
15:31 Ça peut évoluer.
15:32 Techniquement il n'y a aucune difficulté.
15:37 Il y a deux sujets qui sont en même temps...
15:38 C'est juste que ce n'est pas le même résultat et ce n'est pas les mêmes conséquences.
15:40 Aujourd'hui Twitter est une plateforme d'influence.
15:44 Je suis d'accord avec vous.
15:46 Et fait de toutes sortes de contenus non filtrés.
15:48 C'est une responsabilité encore supérieure par rapport à la sortie de Tchad GPT.
15:52 On disait déjà très responsable de plein de choses dans la société.
15:55 C'est encore autre chose.
15:56 Déjà, on vient de parler d'un manière dont on alimente les IA.
16:06 L'anecdote africaine.
16:08 Il y a une anecdote dans l'anecdote.
16:10 Facebook à un moment a nommé un patron de la correction des billets en IA.
16:15 Ce patron est africain.
16:16 Pourquoi il a rejoint Facebook ? Parce qu'il ne reconnaissait pas son visage avec le téléphone.
16:20 Parce qu'il s'est entraîné que ce sont des blancs caucasiens.
16:22 Donc ça on sait.
16:23 C'est parti, il faut le faire.
16:25 Si vous faites l'exercice, vous prenez une photo d'un homme avec une balle à côté.
16:31 Si l'homme est chinois, on dira que c'est ping-pong.
16:34 Si l'homme est caucasien, on dira tennis.
16:35 C'est radical.
16:36 Faites l'essai.
16:37 Ça marche très bien.
16:38 Donc on va dire qu'il y a encore beaucoup de boulot là-dessus.
16:39 Mais là on est dans l'amour.
16:40 Quand on dit que est-ce que ChargeGPT s'arrête à 2021, c'est d'abord un problème d'horizon
16:49 de temps.
16:50 Ce qui fait qu'il lui manque toutes les infos récentes.
16:51 Dire que l'IA d'Elon Musk va sur Twitter, c'est d'une part je le suis jusqu'au plus
16:56 présent, mais d'autre part je suis sur des contenus d'un biais absolu.
17:00 C'est quand même deux choses différentes.
17:01 Il y a je suis à jour et ChargeGPT sera à jour.
17:04 Je ne vois pas pourquoi il ne serait pas à jour.
17:05 Et quel poids je donne dans mon corpus de données.
17:08 Mais ça ne retient rien à la performance de ChargeGPT.
17:10 Ce n'est pas le sujet.
17:11 Oui, si.
17:12 Parce que si je pose des questions.
17:13 Non, parce qu'aujourd'hui je pense que le groc est beaucoup moins performant que le NLM.
17:17 Si je demande à ChargeGPT quel est le prénom de cette année, il n'est pas par là.
17:21 Ça dépendra des sujets.
17:22 Ce n'est pas ça la performance d'un NLM.
17:24 Non, c'est la compréhension.
17:26 C'est la compréhension d'un mot dans un contexte de phrase.
17:30 Le même ChargeGPT, si je lui demande est-ce qu'Albert Camus a refusé le prénom de
17:35 Louis et quand j'ai dit en quelle année il l'a eu, il me donne l'année.
17:37 On se rend bien compte qu'il ne comprend pas vraiment.
17:39 Non, parce que là il ne comprend pas.
17:40 Il ne comprend pas.
17:41 Peu importe.
17:42 Ce n'est pas un moteur de recherche.
17:43 Mais c'est parce que je voulais en venir quand même à la manière dont va être nourri
17:48 ce modèle de langage avec les contenus postés sur Twitter.
17:54 Et en plus on vient d'avoir en cadeau, j'ai envie de dire avec l'administreur d'application
17:58 du DSA, du règlement européen, le premier rapport rendu public sur ce qui passe dans
18:04 les fourches codines de la modération sur Twitter et on s'aperçoit de la quantité
18:09 de messages violents, haineux qui traînent sur ce réseau, notamment dans sa version
18:14 française.
18:15 D'ailleurs ça c'est une des surprises, d'ailleurs enfin on a les datas, donc ça c'est bien.
18:19 On voit aussi l'écart, on parle de plusieurs milliers de modérateurs sur l'anglaise,
18:23 on descend à 50 pour le français, je crois qu'on descend à 4 ou 8 pour les allemands
18:27 et 2 pour certaines langues qui sont dites rares alors qu'en fait elles sont pour nous
18:31 importantes comme l'italien.
18:33 Ça déjà on voit un peu le ratio.
18:36 Et la deuxième chose qu'on voit, et ça c'est une surprise et je pense que les sociologues
18:39 auront intérêt à se pencher là-dessus, c'est effectivement on se plaint en France
18:42 énormément de cette dimension haineuse sur les réseaux sociaux, en particulier Twitter,
18:47 enfin X maintenant, et bien il se trouve qu'on est les plus gros émetteurs.
18:51 Donc quelque part on est aussi en tant que français, il faut vraiment aussi regarder
18:55 les choses en face, ceux qui se plaignent de ce que nous faisons le plus.
18:58 C'est-à-dire qu'il y a d'autres peuples européens qui sont beaucoup moins à diffuser
19:03 les éléments de haine.
19:04 En tout cas c'est ce qu'on voit dans les signalements.
19:05 C'est une réalité statistique.
19:09 Peut-être qu'on est beaucoup plus vigilants aussi.
19:10 Avec 52 modérateurs c'est pas énorme, on arrive à avoir des scores quand même de
19:15 suppression de postes.
19:16 Non, non, parce que c'est la proportion.
19:17 Non, non, parce que le ratio par modérateur est supérieur pour les français que pour
19:21 les allemands.
19:22 En fait un modérateur français il bosse beaucoup plus qu'un modérateur allemand.
19:24 C'est pour ça que je dis qu'on est vraiment là-dessus.
19:26 On a une question à se poser sur notre degré de violence de la société française aujourd'hui
19:31 et en même temps le fait de refuser cette violence de manière encore plus forte.
19:36 C'est-à-dire qu'il y a une violence des deux côtés.
19:38 Une ambivalence.
19:39 Et ça je pense que c'est hyper intéressant pour les sociologues du futur qui analyseront
19:44 ça pour essayer de comprendre quel était le mal de cette société française à finalement
19:48 se détester de ce qu'elle fait elle-même comme violence pour elle-même.
19:52 Je pense que c'est naturel.
19:53 Plus on est confronté à des trucs horribles, plus on s'énerve.
19:55 Et donc voilà, à un moment ou l'on reste policier et tout va bien, soit ça dérive
19:59 et ça part en vrille.
20:00 Hypothèse.
20:01 Je ne vais pas rentrer trop dans ce débat-là parce que je ne suis pas là pour faire des
20:06 discours politiques mais c'est vrai que par exemple, je reviens sur mon exemple du Canada,
20:10 à Montréal et les discussions qu'on a pu avoir, c'est quand même intéressant de
20:14 voir par exemple, par exemple, ce pays, après je ne fais pas de jugement ni de comparaison,
20:20 mais dans ce pays, quand on aborde la question par exemple de l'immigration et des quotas,
20:25 on n'a pas de problème.
20:26 C'est devenu quasiment un facteur d'attractivité pour le pays en tant que tel.
20:31 Et donc, on va chercher les gens, on fait de la publicité, on favorise le regroupement
20:36 familial, on fait des choses en faveur de ça.
20:40 Chez nous, on n'a même pas encore abordé le projet de loi qu'on a déjà supprimé
20:44 toute discussion sur certains de ces sujets, notamment sur le sujet des quotas.
20:48 Je ne dis pas que c'est bien ou que ce n'est pas bien.
20:49 Je dis juste qu'il est clair qu'on n'aborde pas les grands sujets de société d'aujourd'hui
20:54 de la même manière, avec la même sérénité.
20:58 On a du mal à discuter, à échanger.
21:00 C'est compliqué, il y a beaucoup d'antagonisme.
21:03 On enchaîne avec notre autre sujet, non Alain ?
21:05 Oui, enfin juste pour terminer sur Grox, ça met en avant l'aval.
21:08 On a parlé de l'amour, il faut mettre plus de données, etc.
21:11 Mais l'aval, on parlait de personnalité, j'ai envie plutôt de parler de propagation
21:15 de biais.
21:16 Parce qu'il n'y a pas de personnalité, il n'y a pas de culture non plus.
21:18 Ça propage des biais.
21:19 Et les biais d'X sont des biais compliqués, avec néanmoins le fait qu'il y a tout et
21:25 son contraire sur X.
21:26 Je suis inquiet de savoir dans quelle meilleure.
21:27 Soit ça amplifie tout et son contraire, ce sera un Gérald, on va faire un par arrêté,
21:30 parce qu'on déteste la violence.
21:32 Soit ça va s'annuler et on va peut-être avoir une modération de X digne de ce nom.
21:37 Est-ce que vous serez prêt à payer 16 dollars ou 16 euros par mois pour vérifier ça Alain ?
21:43 Mais non !
21:44 Allez, autre sujet, donc là c'est Facebook, Instagram.
21:47 Pour eux c'est fini la pub ciblée, enfin c'est fini.
21:49 En tout cas l'Union Européenne dit stop à l'utilisation des données sans un consentement
21:54 explicite des utilisateurs, considérant que pour l'instant ce n'est pas suffisamment
21:58 explicite et à ça le groupe Meta répond par "Ok, dans ce cas-là, on va demander
22:04 aux gens de manière très claire de choisir, soit ils acceptent ce service avec de la pub
22:08 ciblée, soit ils devront payer".
22:11 Alors, dans quel camp allez-vous être ?
22:15 Vous allez payer ou accepter encore cette pub ciblée ?
22:18 J'ai juste sorti ma calculette.
22:19 C'est assez cher l'abonnement.
22:22 9,99 euros.
22:23 Facebook fait 11 milliards de dollars de bénéfices trimestriels avec 2 milliards de personnes.
22:29 Ça veut dire que s'ils devaient le faire payer, c'est 2 euros par personne, pas 9 ou 13.
22:34 À un moment il faudrait arrêter.
22:36 J'imagine qu'ils considèrent qu'il n'y en a pas beaucoup qui vont payer.
22:39 Mais c'est pas grave, le reste aura de la pub.
22:40 Donc moi je dis, le calcul est très simple, si toute la base devenait payante, je ne vais
22:45 pas savoir pourquoi le bénéfice de Facebook serait multiplié par 4.
22:48 Et selon vous, ce prix est discriminatoire ?
22:50 Il est en partie discriminatoire et c'est un test produit.
22:56 Ils font un test pour voir si les gens sont prêts à payer.
23:00 Combien de pourcentage de la base utilisateur est prête à payer ?
23:02 Moi je serais un conseil qui cherche des nouveaux produits, des nouveaux services dans l'entreprise.
23:10 Ça fait longtemps que j'aurais fait le test.
23:12 Objectivement, ça a du sens.
23:15 Alors ça nous sort de ce modèle de l'Internet gratuit, qui finalement, on avait fini par
23:21 accepter l'idée que quand c'est gratuit, c'est nous le produit.
23:24 Sauf que ça va, il me semble, un peu plus loin aujourd'hui.
23:27 On n'est pas juste un produit, nous sommes des opinions manipulables et manipulées.
23:33 Ça devient un sujet politique.
23:35 Oui, et puis ça devient effectivement un sujet dans lequel on est monétisé en permanence.
23:39 C'est effectivement l'étape d'ailleurs qui avait été analysée depuis longtemps.
23:43 L'étape suivante du capitalisme, c'est de faire de nos corps et de nos esprits une valeur.
23:47 Et là, on est vraiment là-dedans.
23:48 Je suis assez d'accord avec ce qu'a dit Jean-Noël, avec les calculs qu'a fait Alain.
23:52 C'est qu'en gros, on a une entreprise là qui quelque part, on lui force dans son modèle,
23:57 parce que clairement, il ne va pas quitter de cœur.
23:59 Ils ont fait un communiqué comme quoi ils trouvaient que ce n'était pas une bonne idée.
24:02 Parce que ça complique pour eux quand même le message.
24:05 Forever free, ben non, parce que forever, ça dépend.
24:07 Et simplement, par contre, ce qu'ils vont faire, c'est que là, ils vont maximiser du coup leur profit encore.
24:12 C'est ça.
24:13 C'est-à-dire que quelque part, et ça c'est vraiment intéressant,
24:15 c'est comment est-ce qu'on a un peu comme un lutteur grec, quand on est au sol, on n'arrive pas à le…
24:20 C'est-à-dire qu'on le prend et voire même, il maintient sa position,
24:25 parce que finalement, au mieux, ce qui va se passer,
24:27 imaginons que 10% de la base installée passe en payant.
24:31 Ce qui va se passer tout simplement, c'est que par rapport au calcul qu'a fait Jean-Noël sur la marge,
24:35 sur 10%, ils vont gagner encore de la marge.
24:37 Donc quelque part, on n'a pas touché le fond du fond du modèle.
24:40 Et Meta, d'ailleurs, s'en sort de manière, moi je trouve, assez incroyable.
24:43 Attendez, parce qu'il ne nous reste que 3 minutes et je voulais absolument qu'on parle avec Jean-Noël
24:47 de la contre-attaque contre les ransomware.
24:50 Ah oui, pardon.
24:51 Puisqu'on a quand même une alliance de 50 membres à l'international
24:55 qui, alors, ne s'engage pas à ne plus jamais payer de rançon,
24:59 mais en tout cas, qui dit que ce serait quand même mieux si on n'en payait pas
25:02 pour montrer l'exemple et assécher les comptes, finalement, des groupes de cybercriminels.
25:08 On va dire que, dans le fond, c'est une position qui est parfaitement cohérente et éthique, pour le coup.
25:16 On ne va pas encourager, on va dire, à payer le crime pour sortir de ce problème-là.
25:26 Maintenant, on se souvient aussi qu'en France, on a, entre-temps, fait passer une loi
25:34 pour justement permettre le remboursement, en fait, la prise en charge par les assurances
25:38 du remboursement des ransomware.
25:42 Des rançons payées.
25:43 Voilà, donc ça veut dire qu'il y a quand même, alors que, je ne suis pas désolé de revenir encore au Canada,
25:47 mais au Canada, par exemple, on rembourse.
25:49 La France fait partie de cette alliance, Jean-Noël, donc ça veut dire que ça pourrait changer.
25:51 Tout à fait. Donc je dirais que là encore, on est un peu comme dans ce qu'on disait tout à l'heure
25:57 sur le projet de loi numérique. Il va y avoir, à la fin, une position intermédiaire.
26:02 Ce qui est certain, c'est que la collaboration en matière de cybersécurité, c'est comme les données pour l'IA.
26:09 Plus il y en a, plus on est performant.
26:12 Donc je pense que ça, c'est une très bonne chose.
26:15 C'est aussi bien de montrer que, justement, l'éthique et la position, on va dire,
26:21 qui est quand même appelée par tous les gens sérieux dans nos métiers
26:25 et les autorités tutelles en général, qui consistent à ne pas payer les criminels,
26:32 payer les rançons, que finalement, cette position est celle qui fait l'unanimité.
26:36 Donc ça a un sens sur le plan technique pour améliorer la qualité du renseignement,
26:41 des échanges de données, de la donnée qui va servir justement à lutter contre les ransomwares.
26:47 Et de l'autre côté, c'est quand même la position de fond qui emporte.
26:52 Est-ce que ça va être plus efficace ? Il y a quand même des plateformes qui vont être mises en place
26:56 pour le partage de données au niveau international. On a l'impression que ça y est, ça bouge enfin.
27:00 On sera plus réactifs, ne serait-ce que ça.
27:02 On a 30 secondes pour conclure.
27:03 Et puis là, on est dans un contexte un peu différent.
27:05 C'est les États-Unis eux-mêmes qui prennent la tête de cette initiative.
27:09 Ils n'ont aucun intérêt aujourd'hui à ce que ça augmente,
27:11 parce qu'ils ont en face plutôt des ennemis qui sont côté chinois ou plutôt côté russe.
27:16 Donc quelque part là, on n'est pas dans le même combat qu'on a discuté depuis le début,
27:20 Amérique contre Europe. Au contraire, eux-là, ils ont intérêt comme nous.
27:24 Et là, on est totalement alignés.
27:25 Plus que nous.
27:26 Et plus à nous. Et donc quelque part, on est protégés là.
27:30 Merci beaucoup à tous les trois.
27:32 Merci Alain Garnier, président fondateur de Jamespot,
27:35 Alain Staron, président fondateur d'Artifil et Jean-Noël de Galzin,
27:40 président d'Exatros.
27:41 C'était Smartech.
27:42 Merci à vous de nous suivre avec une grande régularité sur BeSmart
27:46 et aussi via les réseaux sociaux et via les podcasts.
27:48 [Musique]

Recommandée