00:00Tout ce qu'on publie sur LinkedIn va bientôt être aspiré par son intelligence artificielle.
00:04Ils ont prévenu, ils vont entraîner leur logiciel avec toutes nos données.
00:08Avec tout, avec le petit commentaire que vous avez laissé à un camarade de promo pour le féliciter de sa promotion
00:13ou encore ce trade super inspirant avec plein d'émojis où vous racontez un voyage spirituel en Amérique du Sud
00:20qui vous a poussé à démissionner, c'est un peu ça LinkedIn.
00:22On ne fait pas ça.
00:22On ne fait pas ça ? Il y a des gens qui font ça sur LinkedIn, vous avez remarqué.
00:25Tout ça, tous ces posts, tous ces commentaires, mais aussi votre profil, y compris la photo,
00:30vont être aspirés par LinkedIn pour entraîner ces modèles de langage.
00:35Ce sera à partir du 3 novembre.
00:37Tout ça va être complètement réutilisé.
00:40Seuls seront épargnés les messages privés, ça reste tranquille,
00:44et les données un petit peu sensibles, par exemple, tout ce qui concerne le salaire.
00:48Je ne sais pas comment ils feront le tri, mais ça, a priori, ce ne sera pas utilisé non plus.
00:51Pourquoi est-ce que LinkedIn fait ça ?
00:53Parce qu'encore une fois, et c'est ce que ça prouve, en matière d'IA, la data, c'est tout.
00:58La data qualifiée en particulier, c'est-à-dire cette donnée extrêmement qualitative
01:02qui va permettre d'améliorer l'IA, de lui permettre d'être plus éloquente,
01:06de mieux comprendre finalement comment fonctionne et comment communiquent les êtres humains.
01:11Or, les réseaux sociaux, à commencer par LinkedIn, ils sont assis sur une véritable mine d'or.
01:14LinkedIn, c'est un réseau social professionnel, avec tout le jargon qui va avec,
01:18tout le vocabulaire spécifique selon les branches de métier, tous les codes qui vont avec.
01:23Et tout ça, ça va permettre de concevoir des IA qui vont être beaucoup plus efficaces,
01:27par exemple pour aider à rédiger des CV ou à analyser des CV,
01:31aider des recruteurs à mieux trouver de futurs recrues potentielles.
01:35Et donc, c'est à tout ça que vont servir vos données.
01:38Alors, vous pouvez refuser jusqu'au 3 novembre.
01:40Il faut aller dans les paramètres de confidentialité.
01:42Il y a une petite option à décocher.
01:44Oui, c'est ça.
01:45C'est un système, et c'est ce qu'on peut critiquer, un système d'opt-out.
01:47Donc, en gros, c'est vous, par défaut, qui acceptez.
01:50Oui, vous dites oui, puis si vous voulez dire non, faire une démarche.
01:52Et si vous voulez dire non, il faut faire la démarche, ce qui est toujours un petit peu compliqué.
01:55Puis, c'est rétroactif aussi.
01:56C'est-à-dire que tout ce qui aura été avant le 3 novembre sera de toute façon récupéré et exploité par LinkedIn.
02:02Alors, LinkedIn, ce n'est pas le premier.
02:04Il y a plein de réseaux sociaux qui font ça.
02:05Tout le monde s'y met.
02:06Ce n'est pas pour critiquer LinkedIn en particulier.
02:09Meta avait beaucoup fait parler.
02:10Meta, maintenant, il récupère toutes vos photos Instagram,
02:13tous vos posts, tous vos commentaires sur Facebook.
02:15Tout ça est récupéré.
02:16Alors, encore une fois, à l'exception des conversations privées que vous avez sur WhatsApp,
02:19mais sinon, tout est utilisé, là encore, pour améliorer la qualité des moteurs d'IA générative,
02:25notamment pour mieux comprendre comment les humains communiquent,
02:27l'humour, le sarcasme, des choses qui sont compliquées à appréhender pour l'intelligence artificielle.
02:32Eh bien, en siphonnant toutes ces données sur les réseaux sociaux,
02:34on va permettre d'améliorer ces aspects-là.
02:38X le fait également.
02:39Et alors, il y a une autre entreprise, on sort un tout petit peu des réseaux sociaux,
02:42mais qui s'était fait largement critiquer pour ça, c'est WeTransfer.
02:45Vous n'avez peut-être pas suivi ça, mais au cœur de l'été, WeTransfer,
02:48vous utilisez pour les transferts de fichiers.
02:50Eh bien, ils avaient dit, à partir de maintenant,
02:52tout ce que vous faites passer par WeTransfer,
02:54tous les fichiers que vous mettez et que vous transférez,
02:56on pourra les utiliser pour entraîner l'IA.
02:58Là, ils se sont pris une volée de boue à verre.
02:59Ils ont dû revenir en arrière, mais ça montre bien, en tout cas,
03:02que l'ambition de tous ces groupes, c'est d'exploiter nos données.
03:04On critique, mais il faut bien vendre des choses.
03:06Oui, c'est ça.
03:07Quand c'est gratuit, c'est vous le produit.
03:09On connaît bien le dicton.
03:10Cela dit, on peut avoir une opposition de principe
03:12au fait d'utiliser nos informations
03:14à des fins qui sont relativement vagues.
03:16Par exemple, est-ce qu'on a envie que nos photos de profil
03:18soient utilisées pour entraîner des logiciels
03:20de reconnaissance faciale ?
03:21Ce n'est pas sûr.
03:22Et il y a même une petite musique qui commence à se faire entendre
03:25sur, finalement, comme on exploite nos données,
03:28eh bien, nous, les utilisateurs, on devrait être payés pour ça.
03:31On devrait être rémunérés.
03:32Alors, il y a notamment une ONG, ça s'appelle
03:33le Data Dividend Project, une ONG américaine
03:36qui milite pour un revenu des données,
03:38c'est-à-dire, comme toutes ces plateformes utilisent
03:40nos informations pour nous cibler avec de la pub
03:42et pour entraîner leur modèle d'IA,
03:44il faut qu'elles nous payent.
03:45Je ne sais pas comment ça se mettra en place.
03:46J'ai des très belles données à vendre.
03:47Voilà, vous avez des données très qualitatives, j'imagine,
03:49et donc vous pourriez, eh bien, pourquoi pas,
03:51avoir un petit abonnement, être payé par les plateformes.
03:53Merci, Anthony Morel.
03:54Merci.
03:55Merci.
03:56Merci.