00:00Anthony Morel, il y a quelques jours, OpenAI a lancé la nouvelle version de son IA vidéo Sora, c'est Sora 2.
00:06Donc, moi je n'ai que ça sur mes réseaux sociaux, des vidéos d'accidents spectaculaires, de bébés sauvés par des ours.
00:13Tout ça est faux, mais franchement c'est pas facile de voir la différence, c'est un niveau de réalisme qui est bluffant.
00:19Ça devient impossible et effectivement la grande nouveauté c'est la viralité aussi de ces vidéos.
00:24C'est-à-dire qu'aujourd'hui c'est l'application la plus téléchargée sur l'iPhone dans certains pays,
00:28alors qu'elle est seulement sur invitation pour l'instant.
00:30C'est vous dire, le niveau d'engouement, le démarrage est plus rapide que celui de ChatGPT.
00:34Donc c'est absolument incroyable.
00:36Pour ceux qui ne connaîtraient pas Sora, c'est donc l'IA vidéo d'OpenAI.
00:40On écrit un prompt, un petit texte et on va générer, par exemple, je ne sais pas, un cow-boy qui fait le grand écart entre deux chevaux
00:46et on va fabriquer en quelques secondes une vidéo, un clip qui correspond à ça.
00:50Voilà, un guépard qui affronte un champion de 100 mètres.
00:52Mais moi je regarde ça !
00:53Mais moi aussi, c'est absolument hypnotisant.
00:55Et en fait, ce qui est nouveau, parce que Sora, ce n'est pas nouveau, là c'est la deuxième version,
00:59c'est qu'on a franchi un cap.
01:00C'est-à-dire qu'en termes de réalisme du rendu, c'est complètement dingue.
01:04C'est impossible de faire la différence entre le vrai et le faux.
01:07C'est-à-dire que sur, y compris les enchaînements qui sont hyper fluides d'une scène à une autre,
01:12le respect des lois de la gravité, des ombres, ce qui n'était pas toujours le cas avec la première version.
01:16Et puis il y a du son, là on ne l'entend pas, mais par exemple,
01:18on voit des épreuves sportives virtuelles entre des hommes et des animaux.
01:20Et il y a des commentaires sportifs, comme si vous étiez en train de regarder une épreuve sportive,
01:24un reportage, un documentaire.
01:26On a vraiment l'impression d'y être.
01:27Et là où ils ont été très malins, et c'est pour ça que c'est viral,
01:30c'est qu'ils ont conçu leur application un peu sur le mode de TikTok, en mode réseau social.
01:34On peut partager les vidéos très facilement, on peut se mettre en scène à l'intérieur des vidéos.
01:39Et donc évidemment, tout le monde s'y met, tout le monde partage,
01:41et on ne voit que ça sur les réseaux sociaux.
01:42Alors évidemment, quand tout le monde peut faire ce qu'il veut, ça tourne mal.
01:45Oui, ça devient le grand n'importe quoi.
01:46Alors les deepfakes, ce n'est pas nouveau, mais là, la nouveauté, c'est le fait que tout le monde y ait accès
01:50avec une facilité qui est absolument déconcertante.
01:53Et donc, on a vraiment un énorme bazar.
01:56C'est-à-dire que l'une des tendances, ça va être de ressusciter, par exemple,
01:59sans aucune autorisation des ayants droit, des personnes disparues.
02:03Donc ça va de Einstein qui fait du MMA à Michael Jackson qui vole des nuggets dans un restaurant.
02:09Pourquoi pas ?
02:09Vous avez vu celle-là ?
02:09Oui, il y en a, mais c'est incroyable.
02:11Il y en a beaucoup avec Michael Jackson.
02:12Il y en a énormément avec Michael Jackson, absolument.
02:14Alors, à des vidéos plus sérieuses, pour le coup, de désinformation totale,
02:18où on va avoir des faux discours d'hommes politiques,
02:20des internautes qui vont effectivement créer des fausses scènes de catastrophes naturelles
02:24ou des fausses scènes de panique après une fusillade qui n'a jamais existé, par exemple.
02:28Aucun respect des droits d'auteur non plus.
02:30C'est-à-dire qu'on peut détourner l'image aussi de personnages de fiction.
02:32Donc Mario, par exemple, on voit Mario Kart qui échappe à des policiers.
02:36On a l'impression qu'il est dans un vrai reportage et qu'il échappe à la police.
02:39Pikachu qui a été utilisé et détourné dans plein de situations.
02:42Tout ça, ça fait évidemment paniquer Hollywood, les studios de production,
02:46les éditeurs de jeux vidéo.
02:48Nintendo, notamment, a déjà indiqué qu'il allait prendre toutes les mesures nécessaires.
02:51Autrement dit, on risque d'avoir des très gros procès dans les mois qui viennent.
02:55Vous avez vu celle du gouvernement qui danse ?
02:56Ah non, je n'ai pas vu celle-là.
02:57Avec Emmanuel Macron en quels sont ma cœurs ?
02:59Ah, pas mal.
02:59Je vous la conseille.
03:01Je vous la conseille avant de faire une petite sieste.
03:03Pourtant, d'habitude, OpenAI, ils essayent de faire attention.
03:06Là, clairement, ils ont changé de stratégie ?
03:08Oui, parce que franchement, les garde-fous sont très insuffisants.
03:11C'est-à-dire qu'à la fois, normalement, en fait, quand vous posez la question,
03:14quand vous demandez de créer des contenus violents, par exemple,
03:16l'IA refuse de le faire.
03:17Sauf qu'on sait que c'est assez facile à contourner si on est un peu malin
03:20et qu'on prompte intelligemment.
03:22Donc déjà, ça, c'est une première limite.
03:23L'autre problème, c'est que, alors, normalement, quand on génère des vidéos,
03:26il y a un petit logo Sora, sauf qu'on peut l'enlever aussi très facilement.
03:29Il y a des outils qui permettent de faire ça.
03:31Donc, on voit que les garde-fous qui ont été mis en place
03:33ne sont vraiment pas suffisants.
03:35Pourquoi ?
03:35Eh bien, parce qu'OpenAI, aujourd'hui, est dans une course de vitesse.
03:38Ce n'est pas les seuls à faire des IA génératifs de vidéos.
03:40On a VO3 chez Google, on a Runway, on a Grock.
03:43Et donc là, la course à l'utilisateur fait que, finalement,
03:46ils n'ont pas mis les verrous qu'ils mettent habituellement.
03:48C'est l'un des mantras de la Silicon Valley.
03:50Move fast, fix later, aller très vite pour prendre le plus d'utilisateurs possible,
03:55quitte à réparer les pots cassés plus tard.
03:57Oui, Nertex Hall.
03:58C'est exactement ça.
03:59Merci Anthony.
03:59Sous-titrage Société Radio-Canada