IA et création immersive

  • il y a 5 mois
Modération : Adrien Cornelissen, auteur et journaliste spécialiste en création numérique.De quelles manières les artistes s’approprient-ils ces IA pour créer des univers immersifs et virtuels ? Que permettent ces outils et que ne permettent-ils pas ? Ces intelligences artificielles génératives ouvrent-elles forcément des futurs créatifs souhaitables ? Comment les professionnels de la création numérique et des industries culturelles et créatives anticipent-ils cette révolution en marche ? avec les artistesIsmael Joffroy Chandoutis.
Justine Emard
Bruno Ribeiro 

Category

🗞
News
Transcription
00:00:00 Année 2024, le mot très à la mode, IA.
00:00:05 L'année 2022 c'était NFT, donc chaque année à son lot.
00:00:09 L'idée c'est de décrypter un petit peu les enjeux qu'il y a autour de cette IA.
00:00:13 On m'a dit assez récemment qu'il ne fallait pas dire les IA parce qu'il y avait un côté
00:00:18 anthropomorphique et que du coup on était un peu décalé par rapport à la technologie.
00:00:22 Donc je vais m'efforcer de dire IA aujourd'hui, une intelligence artificielle.
00:00:24 Pour parler d'un sujet, des opportunités qui sont liées à la création, qu'est-ce
00:00:30 que ça engendre dans le domaine de la création numérique.
00:00:32 Ça c'est peut-être intéressant et le corollaire c'est aussi d'envisager les effets plus négatifs,
00:00:37 qu'est-ce que ça ne permet pas dans le domaine de la création numérique.
00:00:39 Aujourd'hui on a un panel particulièrement intéressant parce qu'on a trois jeunes artistes
00:00:45 qui travaillent sur ces IA de différentes manières dans différents champs disciplinaires.
00:00:49 A ma droite, je vais les tutoyer parce que je les connais un petit peu et ça serait
00:00:52 bizarre et je sais qu'on va glisser dans quelques instants si on commence à se voyer.
00:00:55 A ma droite, Justine Emard.
00:00:58 Justine, tu es artiste contemporaine, d'art contemporain.
00:01:02 Tu travailles le médium numérique de l'image, de la photographie, de la vidéo, de la VR,
00:01:09 réalité virtuelle.
00:01:10 Ton travail particulièrement est intéressant aussi parce qu'il est au croisement des neurosciences
00:01:16 et de l'interaction entre la machine et l'homme.
00:01:18 Est-ce que tu peux nous citer deux travaux que tu as réalisés récemment autour de la
00:01:22 question de l'IA ? Hyperphantasia peut-être ?
00:01:25 Oui, Hyperphantasia, des origines de l'image, qui est une grande installation qui finalement
00:01:32 revient à qu'est-ce que c'est que l'origine de l'image.
00:01:34 Donc à la fois l'origine de l'image dans notre cerveau et puis l'origine de l'image
00:01:39 dans la création humaine et dans le fond des grottes et notamment tout un travail avec
00:01:45 un système génératif qui va créer des nouvelles images de la grotte chauvée.
00:01:52 Donc tout un travail plutôt scientifique.
00:01:54 Peinture épaisse.
00:01:55 Peinture épaisse, à la croisée entre l'art et les sciences aussi, puisqu'il y a une
00:01:59 dimension aussi scientifique dans ce projet-là et dans mon utilisation d'intelligence artificielle
00:02:04 qui est très souvent couplée à des laboratoires ou à cette dimension de recherche.
00:02:09 Plusieurs laboratoires en Asie, au Japon ?
00:02:11 Oui, et j'ai aussi tout un corpus d'œuvres que j'ai créé entre 2016 et 2019 au Japon
00:02:21 avec des laboratoires japonais et notamment celui de Takashi Ikegami de l'université
00:02:26 de Tokyo qui s'intéresse plutôt au domaine de la vie artificielle qui est beaucoup plus
00:02:31 large que l'intelligence artificielle et qui est aussi assez fascinant.
00:02:34 Ok, peut-être que tu pourras nous donner aussi la définition de la vie artificielle.
00:02:37 Je souligne aussi que tu es artiste, professeur, invité au Freynois, le studio national des
00:02:43 arts contemporains, une excellente école que je recommande pour ceux et celles qui
00:02:46 souhaitent poursuivre une carrière dans la création numérique.
00:02:49 Et puis que tu travailleras particulièrement aussi sur Osaka, l'exposition universelle
00:02:56 au Japon, sur le pavillon français.
00:02:58 Exactement, je suis directrice artistique pour l'exposition permanente du pavillon
00:03:04 de la France à l'exposition universelle de Osaka et là encore une fois un terrain
00:03:08 d'expérimentation, d'expérience de recherche mais qui est placé dans une direction beaucoup
00:03:14 plus nationale et internationale.
00:03:16 Ok, merci Justine d'être présente.
00:03:18 Ismaël Geoffroy Chandouty, tu es un artiste reconnu pour ton travail autour de la vidéo,
00:03:23 de l'art contemporain et de la post-photographie.
00:03:25 Déjà qu'est-ce que ça veut dire post-photographie ? Post-documentaire et post-photographie ?
00:03:29 Quand l'image n'est plus générée par quelque chose qui est attiré à la lumière
00:03:37 mais que ça se produit d'une autre manière, synthétique peut-être.
00:03:40 Ok, j'imagine aussi que l'ouïa est au cœur de ces dispositifs dans la post-photographie
00:03:47 et post-documentaire ?
00:03:48 Oui, c'est-à-dire de se dire ce que c'est que de raconter le réel quand on ne part
00:03:54 pas physiologiquement de cette captation de lumière.
00:03:59 Ton travail a été présenté au Centre Pompidou, au Pearl Art Museum à Shanghai, présenté
00:04:05 dans des gros festivals comme la Biennale Nemo qui est l'une des grosses références
00:04:08 en France sur la question des arts numériques.
00:04:11 Et puis tu as gagné pas mal de prix, également le César du meilleur cours documentaire en
00:04:16 2022 avec ton oeuvre Malbec.
00:04:18 Tu peux peut-être nous en toucher un mot de cette oeuvre ?
00:04:21 Oui, c'est d'ailleurs très particulier d'en parler le 23 mars, car hier il y avait
00:04:28 la commémoration des attentats du 22 mars à Bruxelles, pour ne pas parler de ceux de
00:04:34 Moscou.
00:04:35 Et donc j'ai fait le portrait d'une femme qui s'est réveillée un jour à l'hôpital,
00:04:41 trois mois après le début de son coma et qui a survécu à l'explosion qui a eu lieu
00:04:48 en 2016 dans la rame de métro à la station Malbec à Bruxelles et qui ne se souvenait
00:04:54 de rien.
00:04:55 Et du coup, je l'ai suivi pendant 4-5 ans dans sa quête de retrouver cette image manquante.
00:05:02 Il s'agissait pour moi de ne pas forcément capter le réel directement, mais de le réinventer
00:05:11 puisque c'était surtout sa réalité intérieure que j'essayais de dépeindre à travers les
00:05:16 images.
00:05:17 Avec une IA ?
00:05:18 C'était un procédé de photogrammétrie où ce que j'ai essayé de faire, c'est de ne
00:05:25 pas forcément reconstituer de manière photoréaliste les images que j'avais captées, les mettre
00:05:33 dans un environnement 3D, mais plutôt de les laisser un état de fragment qui était
00:05:37 pour moi la manière de mettre les spectateuristes dans cette sensation de son identité ou d'une
00:05:46 réalité ou d'un souvenir brisé.
00:05:49 C'est-à-dire que ce qui a été soufflé, ce n'est pas seulement une violence physique,
00:05:53 c'est aussi ses souvenirs.
00:05:54 Tu nous parleras plus longuement de tes œuvres.
00:05:58 Tu es aussi artiste associé au 104 actuellement et tu travailles.
00:06:03 Tu as l'opportunité d'avoir l'une de tes œuvres qui a été achetée par un musée,
00:06:10 qui a été acquis par le premier établissement...
00:06:12 J'ai du mal à formuler cette phrase.
00:06:15 Le premier établissement français qui a acquis une œuvre en NFT, c'était ton œuvre
00:06:20 ainsi que celle de quelques autres artistes au musée Granet à Aix-en-Provence en 2023.
00:06:24 Dernier invité, Bruno Ribérault, tu es artiste, tu réalises des installations, des œuvres
00:06:33 interactives, de la scénographie sur plein plein de médiums.
00:06:36 Est-ce que tu peux nous parler d'un de tes travails ? Tu m'as montré tout à l'heure
00:06:39 un de tes travails que tu faisais justement autour de la main et de l'IA.
00:06:42 Oui, effectivement, mon premier projet autour de l'IA, je l'ai fait l'année dernière.
00:06:47 Et c'était quelque chose qui m'obsédait depuis un certain temps, c'était justement
00:06:51 la représentation de la main, mais en fait la représentation biaisée des IA.
00:06:56 Est-ce que les IA ont vraiment du mal à représenter ? Non.
00:06:58 Et en fait, c'est une faille qu'elles partagent avec les êtres humains.
00:07:01 Pour les êtres humains, la chose la plus dure à peindre, c'est les mains ou les pieds.
00:07:04 Parce que c'est le vecteur d'humanité, il y a plein de positions possibles et différentes.
00:07:08 Donc à partir de ce détail, j'ai créé une exposition qui parlait de mon rapport
00:07:14 à l'image, de mon rapport à la technologie, mais aussi de comment une IA et ses failles
00:07:21 peuvent la rendre sensible.
00:07:23 Comme tu en parlais tout à l'heure, on veut des fois humaniser l'IA, on dit que l'IA
00:07:28 a des hallucinations, etc.
00:07:29 Et en tout cas, il y a quelque chose qui m'intéressait là-dedans, c'était vraiment de travailler
00:07:32 sur l'accident, et plus le côté un peu aléatoire que je peux chercher quand je vais
00:07:37 travailler avec des IA, ce qui m'intéresse c'est plus ce qu'elle va me proposer dans
00:07:40 ses erreurs que quelque chose que j'ai vraiment cherché à provoquer à 100%.
00:07:44 Un travail également sur le corps, la perception, la construction du réel, comme les trois
00:07:49 invités qui sont là.
00:07:50 Tu as montré des travaux à la Fête des Lumières à Lyon, au Nour Festival, à Riad,
00:07:58 au Lighthouse Gallery à Los Angeles, des œuvres qui sont montrées un peu partout dans
00:08:01 le monde.
00:08:02 Donc trois artistes internationaux.
00:08:04 Et on rigolait tout à l'heure parce qu'on disait que l'IA, ça se compte en années
00:08:08 numériques, ça veut dire que oui, ça fait quelques années que ces artistes travaillent
00:08:12 sur l'IA, mais finalement ça en fait déjà des précurseurs presque, même si aussi il
00:08:17 faut se souvenir que l'IA dans le domaine de l'art, c'est pas une notion qui est travaillée
00:08:20 seulement depuis 5 ans, ou depuis 2023, depuis les annonces, mais depuis 50 ans déjà par
00:08:24 des artistes qui sont précurseurs.
00:08:25 Mais il n'empêche que le savoir-faire que vous avez acquis, on pourrait considérer
00:08:29 que vous êtes expert en la question.
00:08:31 Ma première question, peut-être que je vais oublier de me présenter, moi je suis journaliste,
00:08:34 je travaille spécifiquement sur l'impact du numérique dans le domaine de la création
00:08:38 artistique pour une dizaine de magazines en France.
00:08:40 La première question que je m'étais posée et que je vais également vous poser, qu'est-ce
00:08:45 que c'est une IA générative ? Qu'est-ce que c'est cette histoire de deep learning,
00:08:49 de LLM, etc. etc. ?
00:08:51 En quelques mots, parce que c'est pour cadrer le sujet s'il vous plaît.
00:08:59 On va peut-être commencer par le plus connu qui est ChatGPT, qui est en tout cas le point
00:09:06 d'entrée pour le grand public sur les IA dans un usage pratique qui est devenu un peu
00:09:11 tous les jours.
00:09:12 LLM c'est un large language model où en tapant des textes sous forme de langage naturel,
00:09:24 on obtient des réponses rapides, précises, qui sont une espèce de Google augmenté,
00:09:31 dans l'usage en tout cas qui s'en fait.
00:09:32 Et c'est basé sur un système d'entraînement de texte qui serve à prédire la suite d'une
00:09:41 série de textes.
00:09:42 Et donc le modèle le plus simple c'est votre correcteur orthographique sur votre téléphone.
00:09:51 Et on pourrait dire que de cette chose là c'est une version extrêmement complexe,
00:09:56 d'autant qu'aujourd'hui cet usage est devenu multimodal puisqu'on ne parle plus
00:10:02 qu'avec du texte, avec ChatGPT en tapant, on peut lui parler, on peut soumettre des
00:10:08 photos, du son, et on peut combiner plusieurs types de médias et d'obtenir des tâches
00:10:16 qui peuvent aller de résume moi, un document de 2000 pages juridiques en termes très simples
00:10:23 pour un enfant de 12 ans.
00:10:24 Donc en texte ?
00:10:25 Voilà, en texte.
00:10:26 Mais il y a la faculté d'être incarné par une voix et on peut à l'issue de cette
00:10:33 recherche qu'elle soit universitaire ou autre dire "génère moi une image de ce que tu
00:10:38 viens de me dire" et maintenant est intégré un générateur d'images qui s'appelle
00:10:42 Dali, qui a une particularité par rapport au reste de ce qui se fait sur le marché,
00:10:49 d'être extrêmement précis dans un certain nombre d'éléments à paraître parce que
00:10:54 les autres, de ce que moi j'ai pu comprendre, il y a plus de limites dans le nombre d'éléments
00:10:59 qu'on peut afficher ou combiner.
00:11:01 Qui veut compléter cette réponse déjà très complète de ce qu'est une IA générative ?
00:11:06 Ce qu'a défini Ismaël, c'est vraiment la démocratisation des IA pour le grand public,
00:11:13 qui est quelque chose qui a un an, un an et demi, qui est assez récent.
00:11:16 Mais avant ça, l'IA générative et l'IA au sens large, c'était plutôt un domaine
00:11:22 scientifique.
00:11:23 C'était plutôt de la recherche qu'on faisait, qui était déjà appliquée dans
00:11:27 plein de domaines puisque c'est déjà des systèmes qui sont partout, des systèmes
00:11:31 de machines auto-apprenantes et qui ont été vraiment boostés depuis 2010 grâce aux nouvelles
00:11:39 façons, aux nouvelles capacités de computing.
00:11:42 Et tout à l'heure, j'évoquais le champ de la vie artificielle qui a été créé
00:11:47 en 1989 par Christopher Langton et qui était cette idée d'ouvrir un champ de recherche
00:11:53 autour de la computation, d'observer des systèmes présents dans la nature, donc des
00:11:58 systèmes qui sont déjà là sous nos yeux, d'essayer de les analyser, de les resimuler
00:12:03 par ordinateur pour essayer de rentrer dans une autre forme de computation du réel, de
00:12:09 créer des nouveaux algorithmes et d'aller chercher de nouvelles choses.
00:12:14 Donc c'est déjà quelque chose qui est hyper large, qui existe depuis de nombreuses
00:12:20 années, mais c'est vrai que ça a été rendu très largement diffusé et diffusable
00:12:24 avec ces nouveaux...
00:12:25 Donc dans l'incroissance collective, c'est en train de prendre cette définition, cette
00:12:28 tournure, c'est-à-dire que dans l'incroissance collective, il y a égal, il y a générative
00:12:32 égal, chat GPT, d'une certaine façon.
00:12:34 Égal aussi, gain de temps, il y a quand même aussi cette dimension de productivité, de
00:12:40 fonctionnalité qui est hyper présente, alors que justement quand on l'utilise comme outil
00:12:45 ou comme médium artistique, pour moi par exemple, c'est un temps qui est beaucoup plus
00:12:50 délayé, c'est beaucoup plus lent de travailler avec ces procédés.
00:12:52 Et c'est ça qui est intéressant, c'est que pour le grand public, c'est vraiment la
00:12:56 fonctionnalité, la productivité, mais un petit peu comme le rapport qu'on a à la robotique,
00:13:01 qui est toujours quelque chose qui va nous aider à accomplir des tâches, qui est une
00:13:05 fonction et qui n'est pas là pour son existentialité.
00:13:08 C'est drôle ce que tu dis, je vais rebondir là-dessus parce que effectivement, moi, j'ai
00:13:13 l'un des autres projets que j'ai fait, qui s'appelle Celluloid, en fait, c'était de
00:13:16 partir des films des Frères Lumière et donc de les réinterpréter avec Warp Diffusion,
00:13:21 qui est un autre modèle, mais qui n'est pas grand public, c'est vraiment genre power
00:13:25 user, c'est du code, il faut aller sur Google Collab, c'est l'enfer.
00:13:29 Et en fait, justement, au début, je me disais, ça va être bien de travailler comme ça
00:13:33 parce que je ne vais pas forcément gagner du temps, mais je vais pouvoir avoir des
00:13:37 résultats qui sont cools plus rapidement, surtout dans le processus, c'est vraiment
00:13:41 de transformer les films des Frères Lumière, l'arrivée du train de la guerre de la Ciota
00:13:44 en film de combat.
00:13:45 Et en fait, en gros, c'est un film sur lequel je pensais passer peut-être un mois, c'est
00:13:50 venu trois mois et en fait, je ne dormais plus parce qu'en fait, en gros, déjà, le
00:13:55 mot intelligence, moi, dans ce processus là, je ne voyais pas, en fait, il n'y avait
00:13:57 rien d'intelligent de travailler avec Warp Diffusion, parce que c'était juste un modèle
00:14:01 entraîné avec des images et puis, il n'avait aucun raisonnement, il appliquait ce que je
00:14:05 lui demandais, mais par contre, c'était complètement aléatoire, le plupart du temps,
00:14:08 c'était des choix qu'ils faisaient lui-même arbitraires avec des mots, des petites variations
00:14:11 et puis en fait, tu lances les calculs, tu reviens une demi-heure après et puis tu vois
00:14:15 que c'est tout nul et en fait, c'est voilà, là dessus, ce n'est pas du tout un gain
00:14:19 de temps qu'on s'est appliqué à certaines prestations.
00:14:21 Ce n'est pas un gain de temps et en même temps, aujourd'hui, la variation des IA génératives,
00:14:26 du moins celles qui sont accessibles au grand public, à tout à chacun, permet une conversion
00:14:30 de vidéos, d'images, de sons, qu'est-ce que ça permet d'autres ? Qu'est-ce que permettent
00:14:37 ces IA ? Cette IA ? J'avais dit que je ne mettrais pas de pluriel.
00:14:40 Je dirais qu'il y a, pour essayer toujours de rester dans quelque chose de très général
00:14:49 mais vers où on va dans le possible, parce que le dire à l'instant T, c'est toujours
00:14:54 un peu difficile mais dans un futur proche, c'est une convergence des outils pour, je
00:15:01 dirais, pour le domaine artistique et quand même l'expression de soi sur les réseaux
00:15:05 sociaux ou pour communiquer, etc., qui va vers la création de mondes, d'histoires,
00:15:11 ou plein de disciplines qui étaient différentes ont tendance à converger.
00:15:17 C'est pour ça que c'est… Tu peux donner un exemple ?
00:15:20 Moi, un de mes points d'entrée pour vraiment réfléchir à l'intelligence artificielle,
00:15:25 c'était autour du deepfake.
00:15:26 Donc, l'idée d'avoir la possibilité de changer son visage pour prendre celui d'une
00:15:35 autre source et coller un visage de quelqu'un sur une autre personne, pour faire très simple,
00:15:43 des filtres sur Snapchat ou Instagram le permettent de manière rigolote.
00:15:47 Il y a une autre partie qui est beaucoup moins dramatique, c'est d'être dans des formes
00:15:53 de stigmatisation et d'harcèlement, notamment sur les femmes, puisque 95% des deepfakes
00:15:59 pornographiques, c'est sur des femmes et 5% restant, c'est pour des formes d'humour
00:16:05 ou de pastiche sur des hommes.
00:16:06 Donc, ça donne bien quand même une orientation.
00:16:08 Et donc, ça, c'était déjà un usage… Et ça vient d'Hollywood.
00:16:12 À la base, tout ça vient d'Hollywood, de l'idée d'avoir des stars qu'on peut
00:16:17 constamment utiliser au niveau de leurs attributs, même après leur mort.
00:16:21 Et ces outils-là se sont automatisés et ont fini par tomber quelque part dans ce qu'on
00:16:26 appelle l'IA aujourd'hui, au niveau algorithmique.
00:16:28 Donc, ça, c'est un des usages qui va permettre peut-être aussi de se défendre, c'est-à-dire
00:16:33 que plutôt que de se présenter sous sa vraie identité, qui a le risque d'être dérobée,
00:16:36 on se présenterait sous forme d'avatar, et donc des avatars qu'on pourrait avoir
00:16:42 sous forme de dessin animé, mais aussi de manière photoréaliste, mais différente.
00:16:45 Et après, sur le reste, je dirais qu'il faut ramener ça au jeu vidéo.
00:16:52 Le jeu vidéo contient à peu près tous les arts.
00:16:55 Et cette forme de monde qu'on fait en 3D tout de suite, l'autre partie qui génère
00:17:02 du photoréalisme, tout ça est en train de se rejoindre à travers des outils qui sont
00:17:07 quand même beaucoup de labeur à programmer, et qui peut-être, dans un futur proche, seront
00:17:13 faits par une voix orale qui instruira des idées au fur et à mesure de son flux de
00:17:19 pensée pour générer un world building, un monde entier, autonome, systémique, et qui
00:17:26 est simulé.
00:17:27 Ça veut dire que potentiellement, tout le monde pourrait créer son propre monde, c'est
00:17:31 ça l'idée ?
00:17:32 Je pense que ça va être le cas.
00:17:33 Est-ce que tu peux très rapidement, avant de passer la parole, parler de ton oeuvre
00:17:37 Madotsuki the Dreamer, en l'occurrence sur les avatars, qui me paraît peut-être une
00:17:40 illustration concrète de ce qui est possible avec Lya ?
00:17:43 Alors j'ai fait un projet qui est dans cette recherche sur le deepfake, autour d'un personnage
00:17:51 qui s'appelle Joshua Reingoldberg, qui a été un troll prolifique, qui s'est créé
00:17:57 une centaine de personnages, qui vont de féministes radicales à néo-nazis, en passant par djihadistes,
00:18:03 et donc c'est cette dernière qui lui a valu quelques bricoles, puisque sous couvert de
00:18:08 démasquer d'autres djihadistes.
00:18:10 Il a discuté avec un jeune apprenti étudiant dont il avait donné des conseils pour fabriquer
00:18:16 une bombe en faisant des captures d'écran pour le dénoncer au FBI.
00:18:20 Et il se trouve que cet étudiant apprenti était lui-même un agent double du FBI, ce
00:18:26 qui a mené à être arrêté et en prison pour dix ans.
00:18:30 Et donc il s'agissait dans ma recherche de me dire comment je vais montrer ce personnage
00:18:36 qui est protéiforme et qui lui-même se décrit, parce que c'est quelqu'un qui est sur le
00:18:42 spectre de l'autisme, qui est dans un monde assez fermé, très souvent chez lui, donc
00:18:48 dans une forme d'onirisme, je trouvais que ça raisonnait avec la capacité des IA à
00:18:55 halluciner un monde dans lequel ça ne s'arrête jamais, ça ne se stabilise jamais.
00:19:01 Et donc quand j'ai fait cette work in progress, j'ai préféré montrer un monde qui est tout
00:19:09 le temps en mouvance et qui bouge plutôt que de l'arrêter sur une forme de réalisme
00:19:14 qui pour la plupart des images qu'on voit dans l'IA ressemble à un réalisme netflixien.
00:19:20 On en parlera tout à l'heure sur l'uniformisation des esthétiques, c'est très intéressant.
00:19:23 Des remarques sur les nouvelles possibilités ? Justine, sur ton travail, Hyperphantasia,
00:19:30 superorganisme ? Pour Hyperphantasia, dans mon travail, se pose
00:19:39 toujours la question de la base de données, de comment est-ce qu'on peut aussi entraîner
00:19:45 nous-mêmes des modèles, comment est-ce que l'artiste va...
00:19:48 C'est ça qui est intéressant, c'est de s'emparer de ses outils, mais moi travailler
00:19:53 avec Midjourney, pour l'instant, ce n'est pas quelque chose qui m'intéresse, en tout
00:19:57 cas je pense qu'il y a vraiment des projets qui s'y prêtent et puis en fait, moi ce
00:20:01 qui vraiment m'intéresse c'est de maîtriser de A à B toute la chaîne de création.
00:20:08 Donc l'idée c'était d'entraîner mes propres modèles sur une base de données
00:20:12 qui est une base de données, celle de la conservation de la grotte Chauvet et ça a
00:20:19 été assez fascinant puisque déjà il y a techniquement comment on fait pour récupérer
00:20:23 ces images qui sont des images très protégées et puis en fait j'ai dû vraiment entraîner
00:20:29 différents modèles par rapport à différents univers dans la grotte puisque c'est une grotte
00:20:32 qui est très multiforme, en fait il y a vraiment des peintures, des gravures, mais pour moi
00:20:39 c'était hyper riche parce qu'il y en a des milliers, donc on peut vraiment aller
00:20:44 chercher quelque chose et retrouver des formes.
00:20:48 Mais pour moi la composante aussi qui est intéressante c'est comment est-ce que l'être
00:20:52 humain rentre dans ce processus de travail puisqu'on a toujours tendance à se dire
00:20:56 c'est la machine qui fait, c'est la machine qui fait, mais c'est toujours un humain
00:20:59 qui choisit au final et qui va trouver le sens dans l'image, qui fait sens par rapport
00:21:04 à l'histoire de l'humanité, à l'histoire de l'art, par rapport à des références
00:21:08 et c'est ce phénomène de la pareidolie que j'ai retrouvé dans l'espace latent
00:21:12 et dans toutes les images générées qui m'intéressaient qui est le phénomène
00:21:15 que les hommes et les femmes de la préhistoire ont perçu dans les grottes lorsqu'ils ont
00:21:20 en fait à poser ces dessins. Donc c'est quelque chose qui est profondément humain
00:21:24 dans le rapport à l'image que j'essayais de retrouver et il y a quelque chose dans
00:21:29 ce projet autour aussi du collectif, c'est-à-dire que les peintures dans les grottes c'est
00:21:36 des peintures qui ont été créées aujourd'hui, c'est prouvé à plusieurs, c'est pas un
00:21:39 seul artiste qui va venir peindre mais c'était des groupes composés d'hommes, de femmes,
00:21:45 d'enfants et c'est ça qui est fascinant aussi, c'est que quand on s'intéresse
00:21:48 à l'intelligence artificielle, à l'entraînement des modèles, ça demande aussi des grandes
00:21:53 compétences donc en fait on se retrouve vite un groupe de personnes qui travaillent ensemble
00:21:57 et on est loin de la situation de l'artiste isolé.
00:22:00 Alors justement, peut-être que c'est une question, je saisis cette remarque au vol
00:22:04 pour poser la question des compétences. En l'occurrence Bruno, tu travailles plus
00:22:08 de façon solo sur les projets, ce que tu disais, le projet autour du film des Frères
00:22:15 Lumière.
00:22:16 Oui, effectivement, mais après c'est ça aussi, c'est que finalement les modèles
00:22:20 qu'on utilise et tous les scripts créés, ça fait partie d'une grande communauté
00:22:26 quoi, donc on passe beaucoup de temps sur Discord et sur des sites affreux comme Civit.ai
00:22:31 pour trouver des modèles, mais oui, finalement on n'est pas seul dans cette pratique.
00:22:37 Alors qu'est-ce qu'il faut comme compétences ? Moi ça m'intéresse vraiment de me dire,
00:22:41 pour pas avoir ce biais de croire que l'IA fera le travail à la place d'un artiste
00:22:44 parce que non, une IA ne tue pas la créativité, elle peut par contre détruire des filières
00:22:49 dans l'industrie culturelle et créative, ça c'est un autre sujet. Qu'est-ce qu'il
00:22:52 faut comme compétences ? Il faut savoir écrire, il faut savoir coder ?
00:22:54 En vrai non, je pense qu'il faut juste avoir beaucoup de temps devant soi, honnêtement,
00:23:00 et puis surtout, après moi je sais pas coder quoi, mais après par contre je passe beaucoup
00:23:04 de temps sur Discord, sur des forums, et après effectivement moi si dans des résultats
00:23:10 il y a un lâcher prise que j'assume, l'intention, tout est très écrit à la base en fait, et
00:23:17 c'est ça qui est intéressant, c'est que finalement c'est une espèce de bataille
00:23:19 contre un... c'est comme si c'était un travail avec un autre artiste en fait, qui
00:23:24 n'a fait qu'à sa tête, et donc c'est comme si à chaque génération je devais le briefer
00:23:28 pour revenir un peu à ce que j'ai moi dans ma tête, et après il y a clairement un vrai
00:23:33 échange créatif finalement, et ce qui est aussi intéressant c'est que quand on va
00:23:38 générer ces images, vu qu'elles sont générées à partir de milliers d'images entraînées,
00:23:42 on est un peu dans une espèce d'inconscient collectif, comme si toutes les images du
00:23:45 monde en fait se retrouvaient dans une espèce de nuage, et puis on descendait, c'était
00:23:48 une espèce de gros amalgame de plein de références pas communes quoi.
00:23:53 Et j'imagine qu'il y a quand même un talent d'écriture, on parle du prompt aujourd'hui.
00:23:57 Oui, après le... ouais, effectivement, mais après le prompt c'est... en fait en vrai,
00:24:02 ouais c'est très basique quoi, parce que finalement ce qui a le mieux marché c'est
00:24:06 les bons modèles et puis les petites valeurs que tu vas ajuster au fur et à mesure.
00:24:09 Après il y a des gens qui vont poster des prompts mais c'est du bullshit en fait, c'est
00:24:12 des trucs qui font 10 000 pages, c'est n'importe quoi en fait, ça marche pas.
00:24:16 Non mais je crois que pour rebondir sur ce que tu dis, ce qu'il faut c'est se faire
00:24:19 une expérience sur ces outils, et il faut se tromper, il faut réessayer, il faut vraiment
00:24:25 persévérer aussi, parce que c'est assez décourageant parfois, mais c'est ça en fait,
00:24:31 il faut vraiment se mettre à fond dedans, et avoir un petit côté geek aussi quand
00:24:35 même, aimer aller vers...
00:24:36 Super geek.
00:24:37 Voilà.
00:24:38 Super geek.
00:24:39 Moi j'avoue que j'ai aussi un... j'aime bien apprendre en faisant, et clairement l'IA
00:24:44 c'est ça en fait, c'est que c'est tellement nouveau en fait, il n'y a pas... à part
00:24:48 Midjourney effectivement où tu as une belle interface et encore, le reste, quand tu
00:24:51 vas sur Warp ou Stable Diffusion c'est vraiment...
00:24:53 C'est austère.
00:24:54 C'est très austère, et c'est bien en fait, parce que finalement, ce que je veux dire
00:24:57 par là c'est pas bien, je suis pas en mode gatekeeper, on est entre nous, mais c'est
00:25:01 plus en fait, c'est austère parce que c'est des millions de possibilités en fait, et
00:25:05 plus on rentre là-dedans, plus on sait comment tirer le jus quoi.
00:25:08 Et d'une certaine façon aussi, il faut éclaircir un peu le sujet, c'est-à-dire que là on
00:25:11 parle de la création, on parle pas d'un compte-rendu, de réunion, d'un article quelconque, ou
00:25:16 d'un devoir à faire à la maison, etc.
00:25:18 Il s'agit pas de ça, on parle de création, donc de compétences qui sont liées au créatif
00:25:23 et pas à une IA, on est d'accord ? L'écriture narrative, la réflexion sur un projet, sa
00:25:28 propre culture, etc.
00:25:29 Oui, oui, et puis aussi acquérir une connaissance précise de tout ça, au niveau de l'image,
00:25:39 ça évolue très vite, et t'évoquais l'uniformisation des images, mais c'est aussi qu'est-ce qu'on
00:25:44 a à proposer dans un processus créatif total aussi.
00:25:48 Et je pense que c'est pour ça que c'est important de maîtriser tous les maillons
00:25:52 de la chaîne, même si on va pas tout coder, tout faire à la virgule près, dans le sens
00:25:57 où, même sur quel serveur on va entraîner ces modèles, pour moi par exemple, je pouvais
00:26:01 pas faire un projet sur la conservation d'une grotte et réchauffer sur n'importe quel serveur
00:26:06 dans la planète sans savoir ce que je faisais, donc la dimension de la conscience et de la
00:26:10 représentation qui est hyper importante, et ça commence aussi par l'apprentissage
00:26:14 de comment ça fonctionne, qu'est-ce que c'est qu'une donnée, par où ça passe,
00:26:18 et être conscient de l'impact et du coût aussi de tout ça.
00:26:21 On peut peut-être aussi parler des modèles open source pour différencier ces entreprises
00:26:27 californiennes et des modèles qui sont d'ailleurs peut-être aussi californiens, mais en tout
00:26:33 cas qui ont une vocation un peu différente.
00:26:35 Ismaël ?
00:26:36 Oui, dans le modèle le plus connu, médiatisé, c'est Meet Journey dont on a parlé, qui
00:26:45 était un Discord, un endroit où tout le monde se retrouve, enfin je pense que le Discord
00:26:53 tient peut-être des millions de personnes qui sont inscrites dessus, et donc il y a
00:26:58 un bot sur lequel on écrit pour générer les images, donc ça c'est un des gros points
00:27:03 d'entrée pour le grand public sur la génération d'images, et ensuite il y avait quand même
00:27:08 aussi Dali, le modèle de Facebook, OpenAI, qui a été encore plus facile d'accès quand
00:27:18 il a été intégré HHGPT.
00:27:20 Le modèle de Meta, moi je ne l'ai jamais utilisé, et ensuite le concurrent, le modèle
00:27:27 open source, c'est Stable Diffusion, qui là pour le coup il y a une agentivité qui
00:27:33 est vraiment forte, on peut vraiment customiser même son interface, le modèle, il y a beaucoup
00:27:40 de points d'entrée pour être dans la maîtrise, dans une certaine forme de maîtrise, mais
00:27:45 je dirais que la courbe d'apprentissage est quand même assez forte, et donc il y a une
00:27:51 espèce de compétition sur les interfaces pour essayer de subvenir à tout le monde
00:27:58 en laissant la possibilité que ça soit très ouvert et surtout collaboratif.
00:28:03 Et donc il y a effectivement des gens qui ont la capacité de pouvoir entraîner des
00:28:09 modèles qui partent du modèle de Stable Diffusion, qui va être amélioré ou anglé
00:28:15 dans une direction, qui va être le dessin animé, ou bien de la 3D, ou bien un truc
00:28:21 très photoréaliste, actuel, ou bien très vintage, époque, début du siècle, argentique,
00:28:28 etc.
00:28:29 Et tout ça va être quand même partagé, et donc ça c'est ce que ça permet, et surtout
00:28:35 de partager aussi la manière de taper, de s'échanger des tips, de comprendre ce qu'il
00:28:44 y a sous le capot, quand on ne sait pas du tout ce qui se passe dans les journées.
00:28:47 Donc je trouve qu'il y a moins de rendu uniforme dans ce que j'ai pu voir qui sort
00:28:52 avec Stable Diffusion que sur Meet Journey, bien qu'on peut taper plein de prompts différents,
00:28:56 il y a quand même des choses qui convergent parce qu'on a fait des choix à notre place,
00:29:00 et il y en a beaucoup trop.
00:29:02 Il y a cette question aussi quand même de l'accessibilité, puisqu'on parle là
00:29:05 quand même de possibilités infinies, on en a parlé très rapidement entre nous tout
00:29:09 à l'heure sur les prix, par exemple, est-ce que ce sont des outils créatifs accessibles
00:29:13 à toutes et à tous ?
00:29:15 Oui et non, parce qu'en fait pour générer des images avec Stable Diffusion, il faut
00:29:23 quand même avoir une grosse machine, ou sinon tu vas sur des serveurs comme Google
00:29:27 Collab, donc ça a quand même un coût, et puis après Meet Journey c'est par abonnement,
00:29:33 donc non, il y a déjà une séparation qui s'opère déjà.
00:29:36 Une forme de filtrage, et puis aussi entre certaines régions du monde, clairement on
00:29:40 n'a pas le même pouvoir d'achat en Europe que dans d'autres régions du monde.
00:29:44 Non c'est sûr, et puis même en revenant à Meet Journey, on voit aussi que les images
00:29:48 générées, elles ont soit un style très occidental, soit très asiatique, animé,
00:29:54 c'est assez souvent comme ça, il y a vraiment un filtre, comme quelque chose qui est très
00:29:58 lisse, on reconnaît tout de suite une image générée par Meet Journey, moi personnellement
00:30:02 dès que j'en vois une, ça se voit qu'il y a quelque chose dans le style, et ça fait
00:30:07 que finalement, on a quand même un outil qui nous permettrait de créer des millions
00:30:11 d'images, mais en fait finalement, elles sont toutes un peu pareilles, un peu comme les
00:30:15 films Hollywood en fait.
00:30:17 - Ça revient souvent à la question de l'uniformisation dans vos propos.
00:30:21 Peut-être que je peux vous questionner aussi sur cette tendance à l'hyper réalisme d'une
00:30:26 certaine façon dans tous ces visuels ? Ça vient d'où ça ?
00:30:32 - C'est peut-être pas la partie la plus intéressante, ça dépend après, mais moi
00:30:38 je vois les artistes, par exemple les étudiants du Fresnois, souvent ce qu'ils cherchent
00:30:42 aussi c'est l'erreur, le bug, l'incohérence, tu vois, toi tu parlais de ton travail sur
00:30:46 les mains, en fait c'est ce qu'on se disait un petit peu avant, c'est maintenant qu'il
00:30:53 faut les utiliser ces outils parce qu'il y a plein de choses qui ne sont pas calées
00:30:56 et c'est là que c'est intéressant, et dans la création artistique, il y a beaucoup
00:30:59 de choses qui partent de l'erreur, de quelque chose d'inattendu et c'est ça qui fascine
00:31:05 aussi aujourd'hui, et moi dans mon travail il y a toujours aussi cette dimension de voir
00:31:10 la machine en train d'apprendre qui est quand même la partie assez fascinante, et finalement
00:31:16 quand tout devient trop réaliste, bon, on regardait tout à l'heure des images d'architecture,
00:31:22 alors oui, mais c'est pas très intéressant.
00:31:25 - Exactement, c'est peut-être ça l'effet "waouh" justement, on se dit "bon une
00:31:27 première fois c'est bluffant, on est impressionné par cette performance et puis après ça passe
00:31:31 au-delà".
00:31:32 - Je rebondis là-dessus, moi je sais que quand j'ai fait justement le travail avec
00:31:35 les mains, les images que j'ai générées, j'ai pu les faire que là, parce qu'en fait
00:31:39 finalement le modèle a déjà été mis à jour, tout est mis à jour, donc en fait
00:31:43 si je rentre le même prompt, le même seed, je pourrais jamais avoir les mêmes résultats,
00:31:47 et finalement c'est intéressant parce que c'est comme si c'était déjà daté dans
00:31:49 le temps.
00:31:52 - C'est super intéressant ce que tu dis "daté dans le temps" parce que moi par exemple
00:31:57 pour Hyperphantasia je me posais la question de quel modèle, comment créer la pièce,
00:32:02 et on se dit, surtout quand on crée de l'image en mouvement, le modèle qu'on va utiliser
00:32:08 va fixer l'oeuvre dans le temps, ça va être super dépassé, et en même temps il y a
00:32:12 des modèles anciens qui sont beaucoup plus pertinents que des modèles récents, donc
00:32:16 là c'était un style GAN 2, et en fait ça marche hyper bien pour ce que j'ai fait,
00:32:20 parce que justement je voulais aller à la limite de cette figuration, mais jamais rentrer
00:32:24 dans le figuratif, rester dans l'abstrait, et en fait ce modèle était génial, et il
00:32:28 y a eu un espèce de retour à ces anciens modèles là il y a quelques temps, et c'est
00:32:34 assez chouette, mais voilà c'est des choses, on se dit est-ce qu'on regardera ça avec
00:32:39 nostalgie dans quelques années, mais voilà ce retour à des anciens modèles qui est
00:32:43 un peu comme le retour au vinyle, c'est assez chouette je trouve.
00:32:47 - Une artiste, Anne Aurel, qui génère beaucoup d'images en IA, elle disait qu'elle n'utilisait
00:32:54 que le modèle de Dali n°2, parce qu'il était vieux, il était un peu mal fait, et
00:32:58 ce qu'elle cherchait c'était le côté un peu carton, bizarre, un peu weird, avec une
00:33:02 certaine étrangeté qu'elle ne pouvait plus avoir avec le 3.
00:33:05 - C'est des pinceaux, c'est presque une empreinte d'une époque.
00:33:09 - Oui.
00:33:10 - Est-ce que cette IA, elle a des conséquences dans tous les secteurs, tous les champs disciplinaires
00:33:17 artistiques ? Là c'est quelque chose qui dépasse aussi vos pratiques personnelles,
00:33:22 mais est-ce que vous voyez une révolution dans le cinéma, dans le documentaire, dans
00:33:26 la peinture, dans la musique ? Quid du futur de la création ?
00:33:32 - Est-ce qu'on va essayer d'être optimiste, ou une chronique, ou dystopie ?
00:33:38 - Déjà de dire "on n'en sait rien".
00:33:40 Je pense que l'impact, je préfère dire que j'en sais rien, parce que ça dépend quelque
00:33:47 part entre la projection, la théorie, notre propre théorie qu'on s'en fait, et comment
00:33:53 l'usage va se démocratiser.
00:33:55 Je pense qu'il y a surtout une question, tout de suite, en tout cas moi qui me concerne,
00:34:00 qui est la vision que je peux proposer en expérimentant, en en parlant, et comment ça
00:34:07 peut avoir de l'impact pour ne pas uniformiser un discours dans les usages.
00:34:14 Par exemple, parler de modèle ouvert, de dire qu'on peut obtenir un résultat tout
00:34:23 à fait singulier dans nos démarches, qu'il faut prendre ce temps-là et que c'est toujours
00:34:28 un aller-retour, qu'il n'y a rien de magique, et que ça n'est pas non plus que dans un
00:34:35 but productiviste.
00:34:37 Je pense que c'est important de le dire, parce que si on ne le fait pas, effectivement
00:34:41 on va aller de manière, comment dire, comme une prophétie autoréalisatrice vers ce qu'on
00:34:47 ne veut pas.
00:34:48 Et donc, il n'y a que quelque part, en essayant tous de le comprendre, alors c'est difficile
00:34:54 parce qu'il y a un rapport, est-ce qu'on doit basculer tous dans un rapport intéressé
00:34:59 ou désintéressé, je pense quelque part entre les deux, parce que des fois je perds
00:35:03 beaucoup de temps par rapport à une idée de projet que j'ai, je me dis "ouais mais
00:35:07 là, ça m'échappe trop, donc il faut que je revienne à la théorie".
00:35:10 Mais en même temps, il faut à un moment sortir un truc.
00:35:12 Et donc, quelque part, on est un peu lancé dans la piscine, il faut apprendre à nager
00:35:17 dedans, et ça va se passer de cette manière-là, mais si on fait l'autruche, ça peut être
00:35:23 terrible, et je pense qu'il y a des secteurs qui, pour l'instant, se pensent invincibles,
00:35:29 qui vont lutter à l'inverse de ça, et je pense qu'il est très difficile de se dire
00:35:34 que ça n'aura pas une altération.
00:35:37 Dans cette logique productiviste.
00:35:39 Dans le cinéma, par exemple, on a beaucoup...
00:35:41 Je pense que le cinéma, c'est très en retard.
00:35:44 Je pense que c'est très en retard, parce que c'est que dans des réactions de dire
00:35:53 "ah, mais c'est quand même mal fait l'image", ou bien "ah, le scénario, il est mal écrit",
00:35:57 ou bien "oui, les acteurs, c'est pas trop ça", parce qu'effectivement, il y a une
00:36:01 exigence qui est extrême, donc c'est très facile tout de suite encore de se dire ça,
00:36:05 et que la performance, aujourd'hui, elle est encore, pour moi, dans le texte, dans l'image,
00:36:12 mais elle n'y est pas du tout encore sur le son.
00:36:15 On a essayé, avec un ami, de composer du classique avec les générateurs de musique.
00:36:20 Alors, ok, pour certains modèles de pop très très consensuels, etc., j'avoue que,
00:36:26 je voyais pas trop la différence.
00:36:28 Pour moi, c'était ok, je me disais "waouh, là, ça va être..."
00:36:31 Mais de la musique classique, aujourd'hui, et je dis bien aujourd'hui, c'est très difficile.
00:36:36 Ça veut pas dire que j'ai raison de dire que ça sera jamais possible, etc.,
00:36:40 mais c'est quand même très très préservé.
00:36:42 Même Bach, le Bach, qui est quand même très mathématique, ça sort pas top.
00:36:46 Donc, c'est pas parce que ça y est pas tout de suite, qu'il faut pas voir loin,
00:36:53 et je pense que ce secteur me paraît être trop sûr de ses acquis,
00:37:00 et ça va être très très fort, et ça va être orienté très Hollywood,
00:37:04 parce qu'Hollywood, c'est déjà en déclin, donc ça veut dire quoi ?
00:37:06 C'est Gaffam qui met le "là", donc Netflix avec le Data Driven, etc.,
00:37:11 et ça va donner un peu des films en ubérisation, en menu.
00:37:16 Alors là, je veux un drame, mais il faut qu'il y ait un peu de comédie.
00:37:19 - C'est déjà le cas, hein. - Voilà.
00:37:20 Et puis la fin, on fait comme ça, et puis en fait, cet acteur, je l'aime pas, on va le changer.
00:37:24 Et donc si on veut quelque chose d'un peu plus d'autorité au sens artistique,
00:37:29 c'est le moment de proposer d'autres modèles, d'autres protocoles, d'autres souverainetés,
00:37:35 et je pense que ça reviendrait plutôt du geste documentaire pour le cinéma que de la fiction.
00:37:40 Tu peux nous en dire un mot, encore, sur le geste documentaire ?
00:37:43 Sur le souvenir, sur le comment capter un réel, où 99% des informations qu'on va lire
00:37:52 pour des événements forts, comme celui d'hier, reflètent une forme de réalité,
00:37:58 mais qui n'est plus un accès direct à l'événement physique.
00:38:02 Et donc, je pense que c'est que le geste documentaire qui permet cette remédiation.
00:38:10 Il y a une forme de remédiation, de résilience qui peut se trouver là,
00:38:14 en acceptant qu'on est en train de créer une filière parallèle à l'invention de la photographie,
00:38:22 et que peut-être se situe le geste artistique dans ces croisements entre ces deux vagues.
00:38:28 Mais la fiction de "on va disrupter Hollywood" comme pas mal d'entreprises le font,
00:38:34 je veux dire, Picalabs font une pub, les Oscars, on va le disrupter,
00:38:38 ça veut dire quelque chose quand même.
00:38:41 Et cette chose là, ça va aller vers une forme médiocre, je pense, un peu moyenne,
00:38:48 qui en a rien à faire de tel sujet ou tel sujet, c'est-à-dire que c'est un skin,
00:38:54 c'est comme on échange des skins, il faut couvrir tous les sujets,
00:38:58 comme ça tout le monde sera content, et c'est de ça dont on est en train de parler.
00:39:02 Et c'est ces gens-là qui ont des chances d'imposer une vision de ce qu'on appelle art,
00:39:12 et qu'on ne partage pas ici.
00:39:14 - C'est intéressant aussi que dans certains domaines, typiquement dans la musique,
00:39:17 il y a quand même des choses qui sont opérées depuis quelques années,
00:39:19 et qui sont très effectives. Je renvoie à la sortie du morceau des Beatles,
00:39:23 qui a aussi été driveé par François Paché, qui est un ancien de l'intelligence artificielle.
00:39:29 C'est des choses qui existent déjà.
00:39:31 - Il y a l'Ircam aussi, qui travaille beaucoup, avec ce logiciel SOMAX,
00:39:36 qui est un logiciel d'écoute en temps réel, et qui permet de faire des propositions.
00:39:41 Moi j'ai collaboré avec un des rimes de l'Ircam sur un projet justement de concert,
00:39:47 et c'est assez fascinant parce qu'en fait on n'a jamais deux fois le même concert,
00:39:51 on a une proposition qui est à chaque fois cohérente,
00:39:55 et pour le coup eux ils sont vraiment dans l'expérimentation.
00:39:59 - Sur un modèle complètement à l'antinomie de Spotify.
00:40:03 Le temps passe, et je voudrais revenir sur une notion d'uniformisation.
00:40:10 Qu'est-ce qu'on entendait par là ? Est-ce qu'on a peur que dans 10 ans,
00:40:14 toutes les créations se ressemblent ? Que tous les propos soient lissés ?
00:40:18 C'est ça le risque ?
00:40:20 - Est-ce que si internet devient la base de données,
00:40:26 et qu'on génère des modèles qui reviennent sur internet,
00:40:29 il n'y aurait pas une forme de boucle qui pourrait se créer,
00:40:32 et on reviendrait à une sorte de magma d'images, et il n'y aurait plus d'images dans le monde ?
00:40:36 Ça ce serait assez intéressant à observer.
00:40:39 Mais après oui, pour avoir un peu expérimenté mes journées,
00:40:43 c'est assez difficile je trouve de sortir de... On reconnaît comme tu disais,
00:40:47 il y a souvent les mêmes choses qui sont créées,
00:40:50 et même au-delà de l'art du prompt, il y a quand même une certaine esthétique
00:40:54 qui est véhiculée par ce modèle.
00:40:57 - Et aussi à ça, des fois je vais sur LinkedIn,
00:41:00 et je trouve que de plus en plus, on voit que les gens écrivent avec chat GPT.
00:41:04 Et donc clairement, les formulations,
00:41:07 - Avec beaucoup d'adjectifs, les langues lexicales...
00:41:10 - Et aussi comment tout est construit.
00:41:13 Et je vois maintenant que c'est quasiment des bots de chat GPT qui se parlent en tout,
00:41:16 en disant "ah si c'est ça", et c'est trop drôle,
00:41:19 parce que les gens croient qu'ils ont un lien parfait,
00:41:22 et en fait ils parlent à travers les GAFAM.
00:41:25 Et clairement, ce qui fait peur,
00:41:28 c'est que finalement les IA dominantes, c'est celles des IA corporate,
00:41:33 mais à côté de ça, il y a des Warp Diffusion et des Stable Diffusion,
00:41:37 qui aussi redonnent un peu le pouvoir au peuple,
00:41:41 dans le sens où, moi je vois des petits studios de jeux vidéo
00:41:45 qui utilisent justement des IA pour leur permettre de réaliser les décors.
00:41:50 Donc il y a un concept artiste qui va faire un ou deux décors,
00:41:53 et grâce à des IA qui vont entraîner lui-même, il pourra générer plus de décors.
00:41:57 Et rien que ça, finalement ça peut être appliqué au cinéma, à l'art, et à plein d'autres choses.
00:42:01 Donc c'est un peu un couteau de bleu tranchant,
00:42:04 mais effectivement, oui, le modèle dominant est clairement en train de créer une uniformisation
00:42:07 aussi bien du contenu, mais aussi de la façon dont on parle et où on interagit sur les internets.
00:42:12 - Après il y a internet, et il y a la vie réelle, il y a quelque chose aussi de l'ordre de la rupture,
00:42:16 c'est presque lié à l'histoire de l'art, qu'est-ce qui fait rupture dans l'histoire de l'art ?
00:42:19 Est-ce que c'est si nouveau, ces poussées problématiques ?
00:42:23 Est-ce que le fait d'avoir des productions qui se ressemblent empêche l'idée de rupture ?
00:42:29 C'est pas uniquement lié à une production artistique, c'est aussi au champ social, à ce qui se passe dans la vie ?
00:42:34 - Je pense qu'il y a aussi un truc de... En tout cas, perso, pour moi, je suis à une satiété visuelle.
00:42:38 Genre moi, mon feed Instagram, c'est tous la même chose.
00:42:41 Il y a trop d'images, il y a trop de productions, et j'ai l'impression de ne plus rien voir,
00:42:45 de ne plus rien entendre, vraiment, en ce moment.
00:42:47 Et c'est peut-être ça, le point de rupture, comme tu dis,
00:42:49 mais j'ai l'impression qu'avant, il n'y avait pas autour de production.
00:42:52 Et finalement, moi, j'aime bien jouer aux jeux vidéo,
00:42:54 en fait, j'ai tellement de jeux vidéo dans mon backlog que j'ai même plus le temps de les jouer,
00:42:57 et du coup, ça me décourage, parce qu'en fait, je me dis, mais qu'est-ce que je vais choisir, en fait ?
00:43:01 Et je sais pas.
00:43:02 - On revient à cette notion de productivité, quand même.
00:43:04 - Bien sûr.
00:43:05 - Moi, je rajoute juste un tout petit truc, c'est que là, les modèles qui sont entraînés en texte,
00:43:11 et en images, et en vidéos, commencent à être entraînés sur de la data synthétique,
00:43:17 c'est-à-dire qui a déjà été produite par l'IA.
00:43:20 On n'est plus déjà dans un lien direct à l'entraînement de quelque chose qui a été produit par l'humain en premier.
00:43:29 Donc on a déjà une couche d'entraînement synthétique, et d'ailleurs, c'est très drôle,
00:43:33 parce que Midourney commence à entraîner des images sur des images qui ont été produites par Stable Diffusion,
00:43:40 Stable Diffusion commence à piquer, et donc chacun se pique,
00:43:44 et donc on va arriver dans la partie du flux, le flux sans friction, je pense à une caricature,
00:43:54 où tout est hyperbolé, mais il restera toujours une autre partie intéressante,
00:44:02 mais comment on peut l'entendre dans le bruit.
00:44:06 - C'est peut-être un peu ça aussi la notion de posérité, de se dire qu'il y a une forme de flou entre la réalité, le virtuel,
00:44:14 et qu'est-ce qui est vrai, qu'est-ce qui est faux ?
00:44:18 - Au moins, il y a quelque part une exigence très forte dans la réflexion de la chose dont on est en train de faire l'expérience.
00:44:34 Je pense que c'est un temps incroyable pour ça, de quelle est la nature de l'expérience que je suis en train de vivre.
00:44:44 - J'en reviendrai là-dessus.
00:44:47 Et aussi, finalement, quand j'ai travaillé avec des IA, j'ai fait ces projets-là parce que je voulais travailler avec une IA,
00:44:53 mais je ne voulais pas travailler avec une IA pour gagner du temps, parce que finalement, j'allais réaliser un film de façon traditionnelle.
00:44:59 Et finalement aussi, le travail avec l'IA fait partie du projet en tant que tel.
00:45:04 Et finalement, ces nouveaux outils amènent peut-être une certaine libération dans la création,
00:45:11 où peut-être des gens vont avoir accès plus facilement à des outils, même si là c'est un peu compliqué.
00:45:17 - Dans les créations, dans les productions, comment on en sert une touche de subjectivité ?
00:45:23 Tu parlais tout à l'heure de vie artificielle, mais cette question qui est peut-être plus élargie aussi,
00:45:29 en tout cas plus concrète, je pense notamment à Albertine Meunier, qui travaille beaucoup sur la question de l'humour,
00:45:35 qui se joue d'une certaine façon des visuels qui sont produits,
00:45:38 en disant "est-ce que finalement elle comprend l'humour ? L'humour c'est tout un contexte, c'est un contre-pied, c'est du second degré.
00:45:44 Est-ce qu'une IA comprend vraiment tout ça ? C'est quoi la part de la subjectivité ?
00:45:50 - C'est quoi la part de la subjectivité ? C'est aussi sortir à un moment tout ça de l'ordinateur,
00:45:57 ce que moi je fais dans mon travail, c'est-à-dire que là on parle beaucoup d'images,
00:46:03 mais comment est-ce que tout ça va s'incarner dans le réel, dans une installation physique ?
00:46:07 Et c'est là où cette idée d'un logiciel qui va animer un corps physique,
00:46:15 où on a presque cette idée de l'incarnation, qui moi m'intéresse,
00:46:18 c'est cette friction entre ce qu'on génère et le réel, et comment l'humain réinterprète ça,
00:46:23 et comment est-ce qu'avec de la réactivité ou de l'interactivité il y a quelque chose d'autre qui apparaît,
00:46:28 et finalement on se retrouve face à des présences, à des présences de la machine qui sont dans le réel.
00:46:37 Et comme tu le disais tout à l'heure, on vit une expérience, on vit quelque chose,
00:46:42 il n'y a pas de notion de vrai ou de faux, mais c'est peut-être plutôt de systèmes artificiels,
00:46:48 mais avec qui on peut ressentir de l'émotion par exemple, et ça c'est hyper intéressant,
00:46:52 parce que je pense qu'il y a la dimension évidemment manipulation par ces émotions,
00:46:58 ou par l'interprétation qu'on va faire de la machine,
00:47:01 mais aussi l'idée que ces technologies peuvent nous amener à réfléchir sur ce qu'est notre humanité,
00:47:07 sur de quoi est-ce qu'on est composé, et venir travailler à un nouvel endroit,
00:47:13 qui est l'apparition de ces nouvelles formes d'altérité,
00:47:16 qui peuvent aussi nous toucher tout en ayant conscience que derrière c'est une machine qui n'a pas de sentiment.
00:47:23 Mais moi c'est des choses qui m'intéressent aussi,
00:47:25 et qui passent par le fait de sortir ce logiciel qui va s'incarner dans un dispositif,
00:47:31 alors que ce soit peut-être un dispositif robotique, où là on a ce phénomène vraiment miroir,
00:47:37 mais un autre dispositif, et notamment la lumière, dans mon installation "Supraorganisme" on est en présence...
00:47:44 J'allais te poser la question, tu peux en parler, tu peux dire quelques mots déjà, d'écrire cette installation ?
00:47:48 C'est une installation qui est partie de l'observation d'un essai d'abeilles,
00:47:53 donc de la vie d'un essai d'abeilles, et j'ai travaillé avec différentes formes de computation,
00:47:58 donc il y a à la fois un entraînement de la machine pour reconnaître les abeilles,
00:48:02 pour pouvoir commencer à les suivre, en déduire des vitesses, des mouvements de vie,
00:48:07 et puis aussi une partie plus générative qui génère le futur de cet essai d'abeilles.
00:48:13 Et tout ce travail de computation finalement donne un logiciel qui va animer une grande installation en verre soufflé robotisé,
00:48:21 qui produit du son et de la lumière,
00:48:23 et c'est hyper impressionnant de voir que déjà il y a des gens qui les ressentent,
00:48:30 même si à la fin on est face à un supraorganisme, à une installation qui est très abstraite,
00:48:34 on n'est pas dans quelque chose de random, on est quelque chose qui est simulé à partir de la vie et d'un organisme vivant,
00:48:44 et ça se ressent dans l'installation même si après il y a de l'évolution, il y a de la réaction,
00:48:49 mais en tout cas ce qui m'intéressait c'était de voir plus loin que l'ordinateur,
00:48:54 d'être une forme de transition, d'une forme de passage,
00:48:57 et de resimuler un organisme dans une installation un peu plus totale et environnementale.
00:49:03 Sur la question de l'humour qui est peut-être encore plus difficile à transmettre,
00:49:07 vraiment moi je trouve que c'est intéressant quand même sur cette question de l'humour,
00:49:10 est-ce que tu as quelque chose à dire ?
00:49:12 Notamment mon expérience avec les robots anthropomorphiques,
00:49:16 qui étaient des robots animés par une forme de vie artificielle qui était assez primitive,
00:49:22 qui avait été programmée par Takashi Ikegami,
00:49:25 et en fait on se retrouvait autour de ce robot que personne ne comprenait,
00:49:29 donc ça a créé des situations assez drôles,
00:49:32 parce que moi je ne parlais pas japonais, mes collaborateurs ne parlaient pas très bien anglais,
00:49:36 on n'arrivait pas forcément à se comprendre entre nous,
00:49:38 mais on était tous face à une machine qu'on ne comprenait pas non plus,
00:49:41 et c'était génial en fait, parce que de l'incompréhension, du malentendu, naît plein de beaux moments,
00:49:47 et là c'était vraiment des réactions...
00:49:51 Il y avait en fait une totale, pour le coup,
00:49:57 un total imprévu entre ce que la machine allait générer comme comportement en temps réel,
00:50:02 et la synchronisation du logiciel, donc avec des mouvements, des choses totalement absurdes,
00:50:07 mais c'était assez beau, et en fait l'absurdité elle naît de choses toutes bêtes,
00:50:14 et parfois les dispositifs aussi les plus simples amènent...
00:50:18 Mais c'est vrai que l'humour, est-ce que déjà l'humour c'est quelque chose qui est très présent dans l'art contemporain,
00:50:22 alors peut-être que c'est déjà pas quelque chose qui est forcément facile,
00:50:27 c'est dur, l'humour c'est un des lieux les plus durs,
00:50:31 mais je ne sais pas si tu veux nous faire une blague ?
00:50:35 Non mais je trouve que dans les gars, je dirais, dans l'usage qu'on en fait,
00:50:41 il y a un humour involontaire, parce que comme on est un peu quand même dans...
00:50:45 Il y a toujours l'idée des glissements, des glissements sémantiques,
00:50:49 donc il y a dans les formes, souvent il y a des formes oniriques,
00:50:52 enfin en tout cas, toutes les IA dans la recherche qui a été faite,
00:50:56 et qui nous a été donnée accessible, il y a comme une invitation à décaler les choses,
00:51:03 et donc dans ces décalages, parfois ils sont tragiques,
00:51:06 mais moi il m'en fait beaucoup rire parfois.
00:51:09 Ouais, exactement, pareil aussi en créant avec Warp et Stable et tout ça,
00:51:14 des fois les résultats sont tellement absurdes,
00:51:16 que c'est drôle mais c'est malgré la machine,
00:51:19 mais il y a quelque chose de...
00:51:21 Tu parlais d'onirisme tout à l'heure, et je vais rebondir là-dessus,
00:51:24 c'est que finalement il y a ce côté qui est drôle mais aussi qui est tout le temps décalé,
00:51:28 et j'ai l'impression que comme la machine va générer une image
00:51:31 mais sans avoir aucun affect, aucune sensibilité,
00:51:33 elle va juste la sortir, elle va mélanger tellement de choses
00:51:35 qui n'ont rien à voir, juste guider par un pont,
00:51:37 c'est ça qu'on peut toucher quelque chose d'assez unique et sensible,
00:51:40 de l'ordre du rêve en fait.
00:51:42 Alors que nous finalement, le temps que ça passe du cerveau à la main,
00:51:44 il y a tout un processus de filtrage,
00:51:46 et peut-être que le rire peut venir de là, du second degré.
00:51:49 On voit qu'en tant que créateur, vous avez beaucoup de points communs finalement,
00:51:52 sur beaucoup de choses, ce rapport là par exemple, au sensible.
00:51:56 Étant donné le sujet, et j'imagine l'intérêt et les questionnements que vous avez,
00:52:02 je propose qu'on arrête la discussion ici,
00:52:05 et que vous puissiez poser vos questions,
00:52:07 et qu'on prenne quelques 20 minutes peut-être, maximum,
00:52:11 sur les questions que vous avez.
00:52:13 Si vous en avez, il y a une personne derrière.
00:52:18 Tout d'abord merci, c'est super intéressant,
00:52:25 et j'avais une question par rapport à l'inspiration,
00:52:28 parce que d'après ce que j'ai compris,
00:52:31 l'IA c'est une banque de données,
00:52:33 et des messages pour dire comment accéder à cette banque de données,
00:52:39 par rapport à ce qu'on va lui demander.
00:52:41 Enfin, je résume à ma manière.
00:52:43 Et souvent, vous dites qu'on retrouve un peu les mêmes choses,
00:52:47 et je me demandais si ce n'est pas lié justement à cette banque de données,
00:52:50 qui est uniquement ce qu'on a réussi à choper sur internet.
00:52:53 Je dis ça parce que j'ai vu un truc intéressant hier à l'IRCAM,
00:52:57 où justement des artistes mettent à disposition en deep learning
00:53:01 toute leur oeuvre, ou une partie de leur oeuvre on va dire,
00:53:04 et d'autres artistes ont accès à, je dirais,
00:53:07 la couleur artistique de cet artiste, en payant des royalties.
00:53:12 Et ce serait un moyen de nourrir l'IA avec le respect des droits d'auteur,
00:53:17 parce qu'il y a aussi tout un truc autour des droits d'auteur,
00:53:20 autour de l'utilisation des oeuvres des autres.
00:53:22 Est-ce qu'on aurait pas un IA pauvre, artistiquement parlant aujourd'hui,
00:53:26 parce que justement les artistes ne sont pas impliqués dedans ?
00:53:29 Merci pour vos questionnements en remarques.
00:53:37 Alors, la banque de données, en entrée,
00:53:43 elle est ensuite paramétrée de différentes manières,
00:53:46 et donc en fonction des logiciels, s'ils sont commerciaux ou ouverts,
00:53:51 des décisions sont prises, et pour le cas de Midjourny,
00:53:55 il y a un ensemble de décisions que l'on ne prend pas,
00:53:58 qui amène à l'uniformisation de ce qui sort du processus de génération d'images.
00:54:04 Et donc c'est là où les choses se rejoignent,
00:54:09 mais c'est pas forcément le cas.
00:54:12 Ensuite, la question des droits d'auteur,
00:54:16 on va faire très rapide un scrapping entier du web
00:54:21 sans le consentement de personne à but de recherche scientifique, ok.
00:54:26 Dès l'instant qu'il y a un abonnement à 10 balles par mois, pas ok.
00:54:30 Mais ça, on peut plus rien y faire, c'est lancé, c'est fait, c'est dupliqué, c'est trop tard.
00:54:34 Et donc, effectivement, il s'agit de se dire, maintenant que c'est fait,
00:54:39 qu'est-ce qu'on peut faire ?
00:54:41 Est-ce que le droit d'auteur a encore un sens avec ce qui vient de se passer ?
00:54:45 Et il est vrai que plus ou moins une des hypothèses qui est faite,
00:54:51 c'est que l'empreinte serait mesurée à l'échelle d'un modèle
00:54:56 ou d'un processus de fabrication pour obtenir un certain résultat
00:55:00 ou une marge de manœuvre de résultat
00:55:03 qui serait de l'ordre du modèle avec la couleur de l'artiste, comme vous l'avez dit.
00:55:08 Mais ça reste encore quelque chose de simplifié,
00:55:12 puisque comment on va tracer ça ?
00:55:15 Comment on va tracer, attester que c'est bien ce modèle-là,
00:55:18 qu'il y a une rétribution automatisée sous forme de royalties ou pas ?
00:55:23 Ça veut dire qu'en fait, on devrait tous être des marketeux
00:55:27 qui font des SaaS, Software as a Service,
00:55:31 où je vous propose une interface
00:55:33 et chaque artiste propose un abonnement mid-journey custom
00:55:38 pour pouvoir l'utiliser une fois, qui peut-être ne va pas être cool.
00:55:42 Donc à la fin, il va falloir qu'on s'abonne à 150 artistes
00:55:46 pour pouvoir peut-être faire une nouvelle création.
00:55:49 Ça me paraît de l'humour.
00:55:52 Autre question ?
00:56:07 Merci pour l'échange.
00:56:09 J'aimerais savoir si vous avez un kit de départ pour l'IA,
00:56:13 pour jeunes artistes qui font des images aussi bien fixes qu'animées,
00:56:19 pour être autonome avec ces outils et pouvoir créer.
00:56:24 Tu peux aller sur Automatik Eleven,
00:56:26 et là-dessus tu as plein de tutoriels,
00:56:29 tu as YouTube aussi,
00:56:31 et en fait tu as un nouvel plateau qui vient de sortir,
00:56:33 ça s'appelle Pinocchio, je ne sais plus comment,
00:56:35 je vais le demander après.
00:56:37 Pinocchio, c'est quelque chose qui va te donner accès
00:56:39 à plein de projets, des projets open source,
00:56:41 donc vraiment intéressant.
00:56:43 Pinocchio et Krakat.
00:56:45 Et là, tu auras accès à une énorme base de projets.
00:56:48 Ce n'est pas facile,
00:56:50 mais si tu es étudiant, tu dois avoir du temps pour faire ça.
00:56:53 Mais en gros, ce serait ça, et du temps.
00:57:03 Pour l'histoire d'entraînement à partir de bases de données,
00:57:07 est-ce que ça pourrait y répondre ?
00:57:10 Oui, je sais que tu peux entraîner facilement des Lora,
00:57:14 donc des Lora, ça va être des petits modèles,
00:57:16 mais qui vont quand même dépendre d'un gros modèle.
00:57:18 Donc là, en l'occurrence, stable diffusion,
00:57:20 si tu veux entraîner ton modèle, donc un checkpoint,
00:57:23 là il te faut des milliers d'images,
00:57:25 il faut quand même de la puissance de calcul,
00:57:27 donc soit tu loues des serveurs, soit tu as plein de machines,
00:57:29 je ne sais pas où, mais ça c'est plus compliqué,
00:57:31 et c'est beaucoup plus cher.
00:57:33 Il y a aussi la dimension du coût,
00:57:36 c'est-à-dire que si tu n'as pas une grosse machine,
00:57:38 moi par exemple, j'avais fait tout un travail
00:57:40 de chercher des serveurs qui étaient responsables,
00:57:42 qui redistribuaient la chaleur, qui étaient à Paris,
00:57:45 où je savais où mes données allaient être entraînées,
00:57:48 et ce qui allait se passer, et toutes leurs politiques derrière.
00:57:50 Mais c'est aussi un coût, c'était très cher de louer des serveurs,
00:57:54 comme ça tu t'en as vite pour des milliers d'euros,
00:57:56 pour pouvoir entraîner les modèles que tu veux.
00:57:59 Donc voilà aussi, dès qu'on veut faire un projet un peu personnalisé,
00:58:03 ça peut vite chiffrer sur la puissance de calcul.
00:58:07 Mais ce n'est pas impossible,
00:58:14 et après c'est aussi intéressant de collaborer avec des développeurs,
00:58:18 avec des gens qui ont cette expérience-là,
00:58:20 qui peuvent te faire une expertise.
00:58:22 Par exemple, c'était combien d'images pour les peintures rupestres ?
00:58:26 Je n'avais pas énormément d'images au final,
00:58:29 puisque j'avais réuni des corpus,
00:58:31 donc on parle de milliers d'images dans la grotte,
00:58:33 mais après j'ai travaillé à partir d'une base de données
00:58:36 qui était très fragmentée,
00:58:38 donc ensuite j'ai un peu aussi triché,
00:58:40 c'est-à-dire que j'ai recadré des images,
00:58:43 j'ai fait tout un travail sur ma base de données en elle-même,
00:58:47 pour en fait multiplier le nombre d'entrées,
00:58:50 et un peu twister le programme.
00:58:55 Mais je dirais 800 images comme un mini-minimum.
00:59:00 Ça c'est la taille critique ?
00:59:03 C'est le minimum, mais encore c'est rien.
00:59:05 Les milliers d'images c'est bien, le plus possible.
00:59:08 Bonjour et merci.
00:59:17 J'ai une question peut-être pour vos projets futurs,
00:59:20 avec tout ce que vous pouvez observer, apprendre, expérimenter.
00:59:23 Est-ce que vous avez individuellement des envies
00:59:27 de traiter l'IA comme un sujet, ou un personnage,
00:59:32 ou en tout cas quelque chose qui prenne corps dans vos projets,
00:59:35 avec toute la critique que vous pourriez avoir
00:59:37 à l'égard de ce que ça produit en termes de contenu lycée,
00:59:40 de tous les sujets que vous avez pu expérimenter
00:59:43 dans vos travaux passés et en cours ?
00:59:46 Oui, déjà je pense que c'était le cas pour la main,
00:59:51 par exemple, qui travaille ça.
00:59:53 Je dirais que le point d'entrée dans la pratique artistique
00:59:57 que j'ai pu observer, c'était beaucoup sur un métadiscours.
01:00:01 Je pense que c'est intéressant.
01:00:04 Il faut aussi qu'on s'émancipe d'un discours sur l'IA
01:00:07 en utilisant l'IA pour arriver à des choses plus...
01:00:11 Moi j'aimerais bien travailler sur la question du fait divers,
01:00:14 c'est-à-dire comment les images circulent,
01:00:19 comment ce flux-là se réoriente dans un processus
01:00:25 dont on maîtrise nous, la chaîne,
01:00:28 pour produire un autre discours.
01:00:31 Et forcément, comme ces images ont des effets divers,
01:00:34 c'est beaucoup de désinformation aujourd'hui.
01:00:37 Voir ce que ça peut provoquer,
01:00:40 ça peut créer d'authentique, inauthentique, authentique.
01:00:44 Il y a vraiment un truc sur l'authentique
01:00:47 que j'ai envie de travailler.
01:00:50 Et encore sur cet axe-là, sur le souvenir,
01:00:53 c'est-à-dire qu'est-ce qui atteste que ça,
01:00:57 je trouve ça réel ou pas,
01:01:00 quand on parle d'un souvenir et qu'on l'évoque avec de l'IA,
01:01:04 il y a une zone un peu d'entre-deux,
01:01:08 même du faux souvenir,
01:01:11 parce que qui peut se dire que c'est exactement ce qui s'est passé à l'époque
01:01:14 et qu'il y a déjà tout un système de filtrage.
01:01:17 Et je trouve que justement, arrêter de se poser cette question-là,
01:01:20 au moins pendant un temps du processus artistique,
01:01:23 est quelque chose de très intéressant.
01:01:26 Mais qu'on ne s'autorise pas assez.
01:01:29 Parce qu'il y a toujours l'idée de maîtrise, de rendu parfait.
01:01:32 Et je trouve que d'alterner aussi la manière de faire l'usage
01:01:37 dans le processus, d'alterner des phases
01:01:40 de très gros contrôles, de très lâcher prise,
01:01:43 et des choses que j'aimerais faire plus.
01:01:46 Une autre question ?
01:01:54 Merci beaucoup pour le partage de vos expériences.
01:02:04 C'est une question un peu bizarre,
01:02:08 mais je trouve que l'IA,
01:02:11 il y a ce côté où on arrive à créer une esthétique assez rapidement,
01:02:17 en tout cas sans forcément avoir d'autres techniques.
01:02:20 Et du coup, j'ai l'impression que l'IA va,
01:02:23 avec cet accès-là, cette facilité,
01:02:26 même si ce n'est pas évident de raconter un discours
01:02:29 comme vous avez pu l'expliquer.
01:02:32 Il y a surtout cette recherche de sens
01:02:35 et de pourquoi on fait une création.
01:02:39 Et j'ai l'impression que l'IA devient un outil pour
01:02:43 exprimer ce qu'on a de plus humain en nous.
01:02:46 On se sert de quelque chose qui ne l'est pas
01:02:49 pour exprimer ce qu'il y a de plus humain.
01:02:52 Ça se ressent notamment dans vos projets.
01:02:55 Et je trouve qu'il y a une sorte de paradoxe.
01:02:58 Quelle est votre vision là-dessus,
01:03:01 sur le fait qu'on utilise cette intelligence externe
01:03:04 pour montrer ce qu'il y a de plus propre à l'humain,
01:03:08 qui est nos sensibilités, nos faiblesses.
01:03:11 Et ce qui nous parle quand on voit une œuvre en tant qu'humain,
01:03:16 c'est souvent qu'elle raconte quelque chose de sensible,
01:03:20 qu'on n'a jamais vraiment pu exprimer,
01:03:23 et que quand on la voit de cette façon-là, ça fait sens,
01:03:26 par rapport à notre expérience humaine.
01:03:29 Bruno, tu parlais aussi de la sensibilité,
01:03:32 de l'expression humaine,
01:03:35 et de la façon dont on peut exprimer des failles de cette IA.
01:03:39 Il y a une sorte d'affiliation aussi à des particularités
01:03:42 qui sont propres de l'humain à l'IA.
01:03:45 J'ai l'impression qu'il y a une sorte de mélange là-dedans.
01:03:48 C'est pas vraiment une question, mais comment vous voyez la chose ?
01:03:51 Je peux te donner un début de réponse ?
01:03:54 Mais effectivement, c'est drôle que tu dises ça,
01:03:57 parce que je n'y avais pas pensé avant.
01:04:00 J'ai fait la représentation de la main à travers les IA,
01:04:03 à travers les âges, etc.
01:04:06 J'ai aussi fait une sculpture de ma propre main,
01:04:09 sur laquelle j'ai rajouté un sixième doigt.
01:04:12 Ça me permettait de m'incarner dans l'œuvre,
01:04:15 mais je voulais pas faire quelque chose de virtuel.
01:04:18 Je voulais parler de la chair et de mon rapport à la technologie.
01:04:21 Et aussi, il y avait cette idée-là de la productivité,
01:04:24 est-ce que l'humain pourrait rester productif
01:04:27 et être un peu plus humain ?
01:04:30 C'est peut-être aussi le fait que,
01:04:33 avant d'avoir une bonne image,
01:04:36 il y a beaucoup d'essais, beaucoup d'erreurs,
01:04:39 mais quand tu as une bonne image, ça génère assez rapidement.
01:04:42 Et il y a quelque chose de cet ordre-là,
01:04:45 quand tu as quelque chose qui est instantané,
01:04:48 comme si tu avais une image en tête que tu réussis à visualiser
01:04:51 sur un écran et qui t'expose,
01:04:54 c'est un peu plus personnel.
01:04:57 C'est intéressant.
01:05:00 - Après, par exemple, les réseaux de neurones génératifs,
01:05:03 on parle de réseaux de neurones.
01:05:06 Il y a eu aussi un moment où la science s'est intéressée
01:05:09 à comment les choses se passaient dans le cerveau
01:05:12 pour essayer de les reproduire dans l'ordinateur.
01:05:15 C'est ça qui est super intéressant aussi,
01:05:18 de se dire...
01:05:21 C'est un terme qui n'est pas du tout adapté.
01:05:24 L'intelligence, c'est d'être conscient que tu es en train de parler,
01:05:27 de ce que tu vas dire, de développer tes arguments dans ta tête,
01:05:30 mais tu sais aussi qu'à l'heure il est, tu sais qu'il y a des gens autour de toi,
01:05:33 tu sais qu'il y a des gens qui passent...
01:05:36 Le cerveau est tellement transversal, multitâche,
01:05:39 on ne sait pas comment ça fonctionne.
01:05:42 Et encore, même aujourd'hui, les neuroscientifiques,
01:05:45 les neuroschirurgiens, il y a plein de choses qui naviguent à vue.
01:05:48 Moi, j'aime bien penser le cerveau comme le lieu ultime de l'immersion.
01:05:53 C'est tous ces phénomènes qui se passent, qui sont inconscients,
01:05:56 qui sont hyper intéressants. Tu parlais du souvenir,
01:05:59 mais il y a aussi la perception, le rêve, l'imagination,
01:06:03 qui sont tous au même endroit dans notre cerveau.
01:06:06 Et est-ce qu'on a la capacité d'accéder à ça ?
01:06:10 Et l'image, d'où elle vient, l'origine des images,
01:06:14 dans le cerveau, dans ces représentations qu'on se fait ?
01:06:17 Ce qui est fascinant, c'est que même à l'après-histoire,
01:06:21 ça a été la première fois qu'ils ont essayé de sortir
01:06:24 ce qu'ils avaient de leur tête.
01:06:26 Est-ce que c'était des choses qu'ils imaginaient,
01:06:28 des souvenirs ou des choses qu'ils avaient vécues ?
01:06:30 Ce qu'on est sûr, c'est qu'il y a 40 000 ans,
01:06:33 une image de Mammouth nous parvient toujours aujourd'hui
01:06:36 en termes de communication.
01:06:38 C'est assez incroyable, parce que...
01:06:40 Et même leur structure cérébrale était quand même différente.
01:06:43 Mais on se rend compte qu'il y a des choses
01:06:45 qui sont communes à notre humanité.
01:06:47 Et aujourd'hui, je pense que toutes ces façons de produire,
01:06:51 ces nouvelles façons de produire des images,
01:06:54 sont toujours dans la continuité de ça,
01:06:56 même si nos outils, ce n'est plus le charbon,
01:06:58 c'est peut-être l'ordinateur.
01:07:00 Et puis, je pense que c'est aussi pour ça que...
01:07:03 Quand on est artiste, on replace tout ça dans un contexte.
01:07:05 L'histoire de l'art, c'est toujours en rupture,
01:07:07 en continuité de ce qui s'est fait avant.
01:07:09 C'est une construction humaine.
01:07:11 Forcément, je pense que la dimension humaine
01:07:13 est très importante,
01:07:15 plutôt que peut-être dans d'autres domaines
01:07:17 qui se posent moins la question.
01:07:19 Mais en tout cas, de notre point de vue,
01:07:21 on parle en tant qu'artiste humain.
01:07:23 Souvent, c'est l'artiste lui-même qui va prendre son corps
01:07:26 ou qui va être le cobaye de ses propres expériences.
01:07:29 Ça aussi, c'est quelque chose qui est peut-être...
01:07:32 qui est assez propre au monde de l'art.
01:07:34 C'est-à-dire que notre corps, notre vie,
01:07:38 devient aussi une façon de faire des choses.
01:07:40 C'est peut-être moins le cas quand on est fashion designer,
01:07:43 quand on est dans d'autres milieux.
01:07:45 Mais je pense que c'est pour ça qu'il y a toujours un rapport
01:07:47 aussi très fort à l'humanité.
01:07:49 Une dernière question ?
01:07:52 Bonjour et merci pour la conférence.
01:07:59 Alors moi, j'avais une question qui était
01:08:02 à titre peut-être d'approfondissement sur
01:08:05 qu'est-ce que c'est l'espace latent
01:08:07 et de quelle façon est-ce que vous, vous pouvez
01:08:10 vous positionner vis-à-vis de cette chose qui définit
01:08:14 ou qui donne un grand axe sur ce que produit...
01:08:18 ce que peut produire la machine ou ce que...
01:08:21 Alors l'espace latent, c'est l'endroit où tout ce...
01:08:29 où l'image va être... l'image, principalement l'image,
01:08:35 va être générée dans une tridimensionnalité de catégories
01:08:39 qui vont permettre de distinguer des points de coordonnées
01:08:43 de la base de données qui permet de générer une nouvelle image.
01:08:47 C'est pour ça qu'il n'y a pas vraiment de lien
01:08:49 entre ce qui est donné en amont
01:08:52 parce qu'il y a cette transformation-là.
01:08:55 Et donc il y a des choses qui ressemblent un peu
01:08:58 à la manière de distinguer pour nous,
01:09:01 pour essayer d'être un peu plus concret,
01:09:02 parce que c'est toujours difficile d'expliquer,
01:09:04 qu'est-ce qui différencie un citron d'une orange ?
01:09:07 C'est la texture, c'est la forme, c'est la couleur.
01:09:11 Et donc il va y avoir un ensemble de paramètres
01:09:14 qui peuvent dépasser la centaine, voire bientôt des milliers,
01:09:18 et qui vont donner des points de coordonnées
01:09:21 qui vont faire que quand on tape un texte,
01:09:25 va se générer quelque chose dans l'espace latent
01:09:28 et surtout, une donnée de simulation,
01:09:32 ces éléments-là vont être compris
01:09:35 dans leurs interactions, dans leur manière de fonctionner.
01:09:39 Et c'est pour ça que tout à l'heure, j'ai dit
01:09:41 qu'il y avait un point de convergence
01:09:42 qui va arriver vers l'idée d'un world building
01:09:45 où on va créer que ça soit de manière interactive.
01:09:49 On a beaucoup parlé de manière...
01:09:53 peut-être pas assez justement de la partie installation,
01:09:56 la partie interaction qui peut se passer en aval
01:09:59 quand l'œuvre en fait l'expérience,
01:10:01 mais aussi en produisant l'expérience,
01:10:03 c'est-à-dire, par exemple, là, moi, je suis en train
01:10:05 de faire des expérimentations de dessiner à l'iPad
01:10:09 avec un prompt en intro et que ça génère une vidéo,
01:10:13 que ça génère de l'image.
01:10:15 Et donc là, entre la main négative et l'usage de l'IA,
01:10:19 il y a quand même quelque chose qui se synchronise,
01:10:22 qui se joint, et donc, voilà, l'idée d'un monde
01:10:25 complètement simulé, il va se passer dans cet espace latent
01:10:29 et cet espace latent, parfois, on ne maîtrise pas
01:10:33 tout à fait les coordonnées, donc il y a une forme,
01:10:36 je dirais, d'inconscient, mais qui est...
01:10:39 qui est un inconscient d'une autre chose non humaine
01:10:45 qui est faite à partir de plein d'inconscients individuels
01:10:49 qui produisent tout cet assemblage-là.
01:10:54 C'est un des endroits les plus intéressants
01:10:57 dans le processus de génération d'une image.
01:11:00 On n'a pas parlé du bruit aussi,
01:11:03 le fait qu'on ne passe plus du grain pour révéler,
01:11:06 mais qu'on passe d'un bruit qui révèle une image.
01:11:10 - Du coup, par rapport à ça, dans vos pratiques artistiques,
01:11:14 comment vous faites, comment vous replacez ce gros point,
01:11:18 en fait, de façon sémantique, et comment est-ce que ça vient
01:11:22 se réinscrire dans un schéma...
01:11:27 - L'espace latent, c'est fascinant,
01:11:36 parce que c'est l'espace de toutes les possibilités.
01:11:39 Et en fait, dès qu'on commence à gratter les couches
01:11:42 de ce qui se passe derrière, c'est à la fois tout
01:11:45 et n'importe quoi, et en même temps, c'est infini,
01:11:48 c'est des heures et des heures, et c'est alors là
01:11:51 que ça se passe.
01:11:53 Moi, j'ai géré l'espace latent, le grand volume d'images
01:11:57 qui m'est arrivé, je l'ai géré en me disant
01:12:00 peut-être que je ne suis pas toute seule en tant qu'artiste
01:12:03 à pouvoir les traiter, et j'ai demandé à un scientifique,
01:12:06 Jean-Michel Genest, ancien conservateur de la Grotte Chauvet,
01:12:09 de les regarder avec moi.
01:12:11 Et là, ce qui était intéressant, c'était que cet espace latent
01:12:14 entrait en connexion avec lui, son espace de mémoire,
01:12:17 son espace de ressenti et son expérience humaine de la grotte.
01:12:20 Et de m'orienter dans ces images à travers son expérience,
01:12:23 son vécu.
01:12:25 Et c'est ça qui a fait sens pour moi à ce moment-là,
01:12:28 dans ce projet.
01:12:30 Ce n'était pas juste un projet d'IA, c'était aussi un projet
01:12:33 sensible de mettre en scène cette sensibilité humaine
01:12:36 qui allait rencontrer aussi celle du logiciel
01:12:39 et qui créait comme ça différents choix
01:12:43 qui ensuite orientaient la création finale de l'œuvre
01:12:46 puisque j'ai régénéré de l'espace latent entre les images
01:12:49 aussi pour avoir cette mise en mouvement.
01:12:51 Donc l'espace latent, c'est un outil et c'est à la fois
01:12:55 des possibilités et c'est quelque chose, je trouve,
01:12:58 d'assez beau à mettre en scène aussi d'une façon plastique
01:13:01 dans le sens où c'est un peu dur de toujours montrer
01:13:05 que le résultat final.
01:13:07 Pour moi, je trouve ça beau, la machine qui est en train
01:13:10 d'apprendre et justement le bruit, cette cartographie du bruit
01:13:14 qui se transforme en image, c'est quand même assez magique.
01:13:17 Et le bruit, le grain de la photo, il faut partir de quelque part.
01:13:21 Et là, c'est cette proposition.
01:13:24 C'est des choses qui, je pense, ont un grand intérêt
01:13:27 quand elles sont mises en scène.
01:13:29 Malheureusement, on va devoir s'arrêter là.
01:13:38 Ce que je vous propose, c'est peut-être si vous avez
01:13:40 des questions complémentaires, de les adresser directement
01:13:42 aux invités.
01:13:45 Je remercie tout particulièrement pour la qualité des réponses.
01:13:50 Et j'imagine que vous...
01:13:57 Je vous invite en tout cas à suivre le travail
01:13:59 de ces trois artistes qui sont vraiment des superbes artistes
01:14:03 sur TikTok.
01:14:05 Merci.
01:14:07 Sous-titrage Société Radio-Canada
01:14:09 © Sous-titrage Société Radio-Canada
01:14:11 [SILENCE]

Recommandations