00:00Jusqu'où va la responsabilité des plateformes d'intelligence artificielle quand leurs outils sont utilisés à des fins violentes ?
00:06Ce week-end, Sam Altman s'est excusé publiquement après une tuerie au Canada dans laquelle Tchad GPT avait été
00:14utilisée avant le passage à l'acte.
00:17Anthony Morel, expliquez-nous.
00:18Oui, en fait, c'est la première grande affaire criminelle de l'ère Tchad GPT.
00:22C'est-à-dire une affaire qui remonte au mois de février.
00:25Une fusillade qui a fait 9 morts dans un lycée de Tumblr Ridge au Canada.
00:29Et l'auteur de la tuerie, il se trouve qu'elle avait un compte Tchad GPT.
00:33Alors, le compte était suffisamment inquiétant, le profil en tout cas était suffisamment préoccupant pour qu'il ait été suspendu
00:42par OpenAI.
00:43Donc, on ne sait pas exactement la teneur des échanges parce que l'enquête est en cours.
00:47Est-ce que ça parlait d'armes, de scénarios d'attaque, de pommes menaçants ?
00:50En tout cas, le compte avait été suspendu, mais OpenAI n'avait pas jugé bon de signaler le profil à
00:57la police.
00:58Et ça pose la question de où est-ce qu'on met le curseur ?
01:00Où est-ce que se situe la responsabilité de ces plateformes d'IA ?
01:04Est-ce qu'elles auraient dû, en fait, prévenir les forces de l'ordre qu'un danger imminent se préparait
01:10?
01:10Alors, ce week-end, Sam Altman a dû s'excuser publiquement.
01:14Les mots ne suffiront jamais, dit-il, mais je pense qu'il est nécessaire de présenter des excuses
01:18pour reconnaître le préjudice et la perte irréversible que votre communauté a subi.
01:23Ce qui est une manière aussi de préparer la suite judiciaire de l'affaire
01:27parce que le mois dernier, la famille d'une jeune fille qui a été blessée pendant la fusillade
01:31a porté plainte contre l'entreprise en jugeant que, par un signalement à la police,
01:36le drame aurait pu être évité, sachant que ce genre de cas va se multiplier
01:39puisqu'aux États-Unis, le procureur de Floride a, par exemple, annoncé une enquête criminelle sur OpenAI
01:44pour déterminer le rôle que Chad GPT a pu jouer dans une attaque qui a fait deux morts en 2025.
01:49C'est une première dans l'histoire de la justice.
01:51Attendez, là, ça ouvre un champ, un champ pas possible.
01:55Oui, c'est très compliqué parce qu'on est dans un monde où l'IA, c'est absolument tout de
01:58nous,
01:59où les gens, de plus en plus, s'en servent comme un confident, comme un ami, voire comme un psy.
02:04Donc, où est-ce qu'on met le curseur ?
02:06Est-ce qu'il faut transformer les IA qui savent tout de nous
02:08dans des sortes de détecteurs de dangerosité humaine ?
02:12C'est vrai que Chad GPT voit ce que la famille ou les amis ne voient pas,
02:15la face la plus sombre d'une personnalité quand on se confie beaucoup.
02:20Donc, est-ce que l'IA doit simplement refuser de répondre ?
02:22Est-ce qu'elle doit bloquer le compte en question ?
02:24Est-ce qu'elle doit prévenir les forces de l'ordre ?
02:26C'est un sujet qui est très complexe parce qu'on entre dans le secret des conversations
02:29et puis on peut aussi créer des faux positifs.
02:32C'est-à-dire qu'il y a plein de gens aussi qui s'amusent à tester les limites de
02:35l'intelligence artificielle,
02:36qui font de l'humour noir, qui poussent l'IA dans leur retranchement
02:39pour voir un petit peu comment elle va réagir.
02:41Si à chaque fois qu'il y a un truc un petit peu limite,
02:43eh bien l'IA, le Chad GPT prévient la police, ça va quand même poser quelques questions.
02:49Ça veut dire que vous considérez l'IA comme un humain à qui on confie quelque chose ?
02:53Si vous avez un ami qui vous dit qu'il est dans l'envisage de faire une tuerie,
02:56vous devez le dénoncer, mais c'est pareil ?
02:58C'est exactement ça, mais sauf qu'on n'a pas de cadre légal aujourd'hui pour ça,
03:02il n'y a pas de réponse réellement,
03:03et sauf que c'est une question qui va de plus en plus se poser.
03:05Avec un enjeu financier derrière énorme.
03:07C'est ça, il y a un enjeu financier parce qu'il y a un enjeu d'image,
03:09et les deux sont intimement liés évidemment.
03:12En ce moment, on le voit bien, on a vu que les réseaux sociaux
03:17étaient dans le viseur de la justice,
03:18il y avait le moment Big Tobacco un peu,
03:20avec des procès qui sont en train de se multiplier,
03:22et qui pourraient coûter des milliards en définitive à Meta et aux autres.
03:27Pour l'intelligence artificielle,
03:28ça pourrait être exactement la même chose dans quelques années,
03:30où on se rend compte que finalement,
03:31l'IA, qui sait tout de nous,
03:33qui discute avec nous très longuement,
03:35a aussi une responsabilité,
03:37ou en tout cas les éditeurs de ces plateformes ont une responsabilité,
03:39d'alerter la justice quand il y a une menace de tuerie dans une école,
03:43ou de suicide.
03:44Il y a eu aussi un certain nombre d'histoires
03:45où Tchad GPT a été mis en cause dans une affaire
03:48où la famille d'une personne qui s'est donnée la mort
03:51a estimé que de longues conversations avaient aggravé sa détresse.
03:54Il y a plusieurs procès comme ça qui sont en cours aux Etats-Unis.
03:57Merci Anthony Morel.
Commentaires