Passer au playerPasser au contenu principal
  • il y a 6 heures
Ce mardi 12 mai, les enjeux liés à la vie privée des utilisateurs de ChatGPT ont été abordés par Anthony Morel, dans Culture IA, dans l'émission Good Morning Business. Retrouvez l'émission du lundi au vendredi et réécoutez la en podcast.

Catégorie

📺
TV
Transcription
00:00Anthony, cette question ce matin, sommes-nous espionnés par Tchad GPT ?
00:03OpenAI reconnaît désormais noir sur blanc que les conversations qu'on a avec l'intelligence artificielle
00:08peuvent être analysées et dans certains cas, transpisent aux autorités.
00:12Il faut imaginer, vous êtes en train de discuter avec Tchad GPT, il est 2h du matin,
00:16vous pensez être dans une conversation privée, confidentielle, dans une sorte de bulle d'intimité.
00:20Tant qu'il y a beaucoup de gens maintenant qui utilisent Tchad GPT comme une sorte de psy personnel,
00:25et bien détrompez-vous.
00:26Où en fait, sous le capot, les conversations sont scannées, analysées,
00:30et parfois même, dans certains cas extrêmes, signalées.
00:33Ce n'est pas moi qui le dis, c'est OpenAI, dans un billet de blog qui est un peu
00:36passé sous les radars,
00:37intitulé « Notre engagement pour la sécurité communautaire ».
00:40Ils détaillent leur politique de surveillance des contenus au nom de la lutte contre la violence
00:45et de la prévention contre les suicides.
00:47Donc noble cause, évidemment.
00:49Et donc ils expliquent clairement que quand vous discutez,
00:51l'IA analyse les conversations pour détecter des signaux faibles de comportements potentiellement dangereux.
00:58Ce qui est un exercice extrêmement compliqué, comme vous pouvez l'imaginer.
01:01Parce qu'imaginez quelqu'un qui tape, par exemple, dans Tchad GPT,
01:05« Comment fabriquer une bombe ? »
01:06Bon, ça peut être un terroriste qui a effectivement envie de fabriquer une bombe,
01:09mais ça peut être aussi un journaliste qui enquête sur le sujet,
01:12un écrivain qui veut que son bouquin soit le plus réaliste possible,
01:15ou quelqu'un tout simplement qui veut pousser l'IA dans ses retranchements
01:18et qui pose des questions un petit peu extrêmes.
01:20Donc ça, c'est très compliqué.
01:21Donc ce que fait l'IA, c'est de l'analyse comportementale.
01:23Elle va analyser au long cours la récurrence de certains mots-clés,
01:26ce que dit la personne dans d'autres conversations.
01:29Et à partir de ça, elle va déterminer si c'est dangereux ou pas.
01:31Si le comportement est considéré comme dangereux, qu'est-ce qui se passe ?
01:34Il y a un humain qui va prendre le relais.
01:36Alors c'est un modérateur.
01:37Chez OpenAI, plus probablement un sous-traitant,
01:40qui va analyser la conversation dans son contexte
01:43et qui va déterminer s'il y a danger de passage à l'acte ou pas.
01:46Et à ce moment-là, dans les cas les plus extrêmes,
01:48effectivement, les forces de l'ordre peuvent être prévenues.
01:51On a eu un cas, il n'y a pas si longtemps que ça, en France.
01:53Il y a quelques semaines, où un homme a été arrêté par le RAID à Strasbourg.
01:57Il avait demandé à Tchad GPT comment tuer un agent du renseignement
02:00et il a été immédiatement arrêté.
02:01Ouf !
02:02Eh bien, disons, quelle histoire !
02:03En tout cas, c'est tout le flou entre la sécurité et la liberté individuelle.
02:07Oui, alors c'est là que c'est compliqué, évidemment,
02:09parce qu'à partir du moment où une IA analyse les conversations
02:12pour détecter un danger, ce qu'on peut tout à fait comprendre,
02:14elle analyse aussi potentiellement des éléments très intimes de notre vie,
02:18d'autant qu'encore une fois, les gens utilisent de plus en plus Tchad GPT
02:21comme une sorte de confident.
02:23Et juridiquement, il faut vraiment se souvenir que ça reste une plateforme
02:26en toutes circonstances.
02:27Alors pourquoi est-ce qu'OpenAI fait ça ?
02:29Et probablement les autres aussi.
02:30C'est parce qu'en fait, ils ont la trouille.
02:32Juridiquement, ils veulent se blinder contre d'éventuelles plaintes.
02:35Je parlais il y a quelques jours de Sam Altman
02:38qui avait présenté des excuses publiques
02:40après une tuerie qui a eu lieu au Canada
02:43où l'IA avait été utilisée, Tchad GPT avait été utilisée
02:46avant le passage à l'acte en mode discussion.
02:50Et en fait, pour le coup, Tchad GPT avait détecté le truc
02:52mais n'avait pas prévenu les forces de l'ordre.
02:53Et depuis, il y a eu plusieurs plaintes,
02:56sept plaintes qui ont été déposées par des familles de victimes.
02:59Et donc, en gros, l'idée, c'est qu'ils n'ont pas envie
03:01d'être attaqués pour inaction.
03:02Et pour éviter des procès qui pourraient leur coûter
03:04potentiellement des milliards de dollars,
03:06ils sont en train de mettre en place
03:08un système de surveillance généralisée.
03:10Il faut bien appeler ça comme ça.
03:11En fait, toutes les conversations qu'on a au quotidien,
03:13Anthony, avec l'intelligence artificielle,
03:15c'est devenu une mine d'or pour les enquêteurs.
03:17Bien sûr, les logs de Tchad GPT,
03:19les conversations avec Tchad GPT,
03:20c'est devenu des pièces à conviction
03:22dans de nombreux procès.
03:23Comme c'est déjà le cas pour l'historique
03:25des recherches Google depuis très longtemps.
03:27Mais c'est vrai qu'avec Tchad GPT,
03:28c'est encore pire, entre guillemets,
03:30parce que vraiment, on lui dit absolument tout.
03:32Et il y a eu des histoires incroyables aujourd'hui,
03:34des histoires de meurtres aux Etats-Unis
03:35où des discussions de suspects avec Tchad GPT
03:38ont donné des éléments de culpabilité assez probants.
03:41Par exemple, il y a eu une histoire
03:42où le meurtrier suspecté, en tout cas,
03:45a demandé à Tchad GPT
03:46« Est-ce que mes voisins peuvent entendre un coup de feu ? »
03:48Ou encore « Qu'est-ce qui se passe
03:49si on met un corps humain dans un sac poubelle ? »
03:50Donc évidemment, quand vous commencez à poser ces questions-là
03:53et que vous êtes suspect en plus d'un meurtre,
03:55quand on recolle les pièces du poste, évidemment.
03:57Donc le défi de demain,
03:59l'un des défis de demain, ça va vraiment être ça,
04:01c'est d'empêcher l'IA d'aider les criminels,
04:03évidemment, sans transformer Tchad GPT
04:06et les autres IA, parce qu'on pourrait parler des autres
04:08en une sorte de Big Brother permanent.
04:10Mais est-ce que les autres le font d'ailleurs ?
04:11Parce qu'on sait qu'Anthropic, par exemple,
04:13a décidé de ne pas trop collaborer avec les autorités.
04:15Oui, avec l'armée,
04:17mais pour le coup, je pense qu'ils sont un peu sur les mêmes.
04:19Le truc, c'est qu'on peut louer aussi la transparence
04:21pour le coup d'OpenAI,
04:22qui sont les seuls à avoir publiquement expliqué
04:24le système qu'ils avaient mis en place.
04:26Je serais très étonné que les grands concurrents,
04:28Gemini, Claude et autres, ne fassent pas la même chose.
04:30La télévision, c'est la même chose.
Commentaires

Recommandations