00:00créer des personnages récurrents à partir de sa photo, mais aussi mettre en scène un objet,
00:04une voiture, une marque de t-shirt ou encore un personnage animé. Voilà la promesse de la
00:10nouvelle fonction de Midjournée lancée avec la V7, OmniRéférence, qui selon Midjournée peut
00:17être résumé par l'option Mettre ça dans mon image. Si ce système reproduit une grande partie
00:22des fonctionnalités de caractère référence qu'on avait avec la V6, la bonne utilisation de ce
00:28nouvel outil nécessite tout de même de connaître certaines règles et d'appliquer certains
00:33paramètres avant d'utiliser, au risque d'être frustré. Dans ce tuto, on verra comment bien
00:39utiliser OmniRéf sur l'application web de Midjournée. Mais si vous êtes sur Discord,
00:44il suffira de rentrer la commande OREF suivie de l'URL de votre image de référence. Et vous
00:50devrez également ajuster la force d'influence de cette image grâce aux paramètres OW OmniWeight,
00:57sa valeur peut aller de 0 à 1000, sachant que par défaut, elle est à 100. Et on verra que dans
01:02la plupart des cas, mieux vaut rester sur une valeur modeste pour avoir de meilleurs résultats.
01:07Sur la version web, c'est très simple. Il suffira d'aller dans Add an image et de glisser votre
01:13image de référence dans la case à droite prévue à cet effet. Le paramètre d'influence sera ici
01:19disponible sous forme de curseur. Comme dit précédemment, la valeur à défaut est de 100,
01:23et elle varie entre 0 et 1000. Mais commençons nos tests pour savoir comment bien utiliser OmniRéf,
01:29en commençant par celui du personnage qui nous ressemble à partir d'une de notre photo. Le
01:34premier conseil sera d'utiliser en OmniRéf une photo en style portrait où l'arrière-plan est neutre,
01:41pour que Midjournée se concentre sur les détails de notre personnage principal et non pas sur ce qu'on
01:47a en arrière-plan. A noter aussi qu'une photo de face en portrait comme ceci est plus facile pour
01:52l'IA qu'une photo de profil. Et enfin, surtout, ne pas utiliser de photos retouchées, car l'IA
01:58risquera de ressortir des images déformées en reprenant un style de grain de peau trop lisse,
02:03et donc ça fera beaucoup trop artificiel. Donc comment ça fonctionne ? En allant ici dans Add an image,
02:09nous allons glisser notre photo ici dans OmniRéf, et nous allons pouvoir avec la réglette ici ajuster
02:17de 1000 à 0 notre force, sachant que par défaut elle sera assent. Ensuite nous allons marquer notre
02:25prompt. Plus celui-ci sera détaillé et plus nous aurons des résultats proches de ce qu'on souhaite
02:31voir à l'écran. Pour vous montrer comment ça fonctionne, on a pris un prompt assez structuré,
02:37avec le portrait officiel d'un astronaute américain en orange, le casque posé sur la table,
02:44le drapeau américain dans son dos, et dans le fond on peut voir des dessins de la NASA. Pour
02:50pouvoir comprendre comment ça fonctionne, nous allons appliquer plusieurs paramètres. D'abord
02:55le paramètre minimum à 1, ensuite le standard à 100, puis nous allons aller à 400, et enfin à 1000.
03:02En utilisant le même prompt et la même photo d'OmniRéf, on va pouvoir ainsi comparer les résultats,
03:08et comprendre justement en quoi ce paramètre est important. Mais ce n'est pas tout, tu as aussi la
03:13possibilité de changer les autres paramètres, sachant que plus tu vas augmenter les paramètres
03:17d'esthétique, et moins la force d'OmniRéf sera pris en compte. Donc si tu souhaites créer des
03:23personnages qui te ressemblent, mieux vaut avoir des paramètres esthétiques bas. Pareil, je te conseille de
03:29rester sur un mode standard, et de désélectionner ta personnalisation. Une fois que c'est bon,
03:34nous on va rester comme ça, et je vais faire donc les tests suivants. Le premier à 1, le deuxième en
03:40standard à 100, le troisième à 400, et enfin le dernier à 1000. J'ai donc maintenant l'ensemble de
03:46mes résultats. Pas de surprise sur l'OmniRéférence à 1, aucun des personnages générés me ressemble,
03:52même si un petit peu sur cette image, on a quand même peut-être la coiffure qui a été reprise.
03:58Mais sinon, on peut considérer que l'OmniRéférence n'a eu aucune influence.
04:02Ensuite, sur OmniRéférence à 100, on voit déjà que j'ai été déjà bien retranscrit. Sur cette
04:08première photo, même si c'est pas parfait par rapport à ma photo originale, il y a quand même
04:12un truc. Par contre ensuite, il m'a fait d'autres propositions qui sont complètement à côté, mais
04:16celle-ci, on peut dire franchement que ça fait le travail. Ensuite, les résultats au niveau 400. Et là,
04:21on est vraiment très très proche du personnage principal, même si du coup, sur certaines images,
04:26le fond blanc a été aussi pris en compter. Et du coup, sur certains résultats, c'est un petit
04:31peu dommage. Quand sur les deux autres, ça fait le travail, malgré le fait que quand même, on n'a
04:35pas un résultat 100% des fois en termes de résultats. Et maintenant, avec une OmniRéférence à 1000,
04:40là, ça commence à devenir un peu n'importe quoi. Et cette fois-ci, plus de doute, le fond blanc est
04:46quasiment automatiquement présenté, à part sur la dernière proposition. Mais si un côté du visage est plutôt
04:52bien retranscrit, l'autre, ce n'est pas parfait. En réalité, je pense que le meilleur résultat est
04:56peut-être celui-ci, même si avec une stylisation à 100, on obtient déjà quelque chose de pas mal.
05:02C'est un petit peu ça qui sera frustrant avec OmniRéférence. C'est que des fois, on obtiendra
05:08des résultats qui sont vraiment très intéressants. Mais d'autres fois, l'IA sera complètement à côté,
05:13si on ne fait pas attention à notre prompt ou si notre image de base a trop de détails en arrière-plan
05:19pour qu'on soit bien intégré à celle-ci. Donc, ce que je te conseille, si tu veux te recréer à travers
05:24des personnages, mettre les paramètres suivants et choisir une force d'OmniRéférence entre 100 et 400,
05:30mais ne pas trop dépasser au risque d'avoir des résultats un petit peu bizarres. Et on peut aussi
05:35combiner OmniRéférence avec un style référence, par exemple, en prenant un style Van Gogh, en mettant
05:41notre force. Ici, on va mettre à 200 et on va mettre en prompt A Painting Portrait of a Man. On peut
05:48avoir des résultats intéressants, même si encore une fois, ils sont très inégales entre eux. Et des
05:52fois, c'est assez incroyable comment l'IA arrive vraiment à calquer notre visage pour le retranscrire
05:58sur MideJournée. On peut aussi utiliser, par exemple, notre portrait en image prompt et en OmniRéférence,
06:04avec peut-être une force plus basse, mais un prompt plus fort. Par exemple ici, un chevalier Jedi de
06:12Star Wars pour avoir ici vraiment un personnage qui nous ressemble. Le seul souci, c'est que l'arrière-plan sera
06:18vraiment pris en compte. À ce moment-là, il faudra faire des prompts plus complets en rajoutant,
06:22par exemple, ce qu'on voit en arrière-plan pour obtenir ainsi quelque chose de mieux. Pour rappel,
06:28la bonne structure d'un prompt, sujet, action, environnement, détails visuels, style, ambiance
06:34et paramètres techniques. Sachant que sur MideJournée, les paramètres techniques, ils se régleront
06:39directement ici avec l'ensemble des données. Et plus on mettra de paramètres additionnels, plus on
06:45devra mettre fort notre OmniRéférence, au risque de perdre la ressemblance avec notre personnage
06:50principal. Mais au-delà de créer des personnages qui nous ressemblent, souvenez-vous, en introduction,
06:54on peut aussi utiliser OmniRéférence avec tout ce qui est objet, créature, voiture. Et justement,
07:00on va faire ici avec la boisson Ciao de Squeezie. On va mettre Dark Vador qui est en train de tenir la
07:07boisson. On va rester sur nos paramètres et on va faire le même test de 1 à 100 à 400 à 1000. Et là,
07:13les résultats sont les suivants. Donc pour le 1, bien sûr, on a juste Dark Vador qui est en train
07:18de boire une boisson. Mais à partir du 100, on a déjà la boisson Ciao qui a été retranscrit. Et
07:23les résultats sont plutôt pas mal, même si ici dans le 2, le design de la bouteille a complètement
07:27changé. Mais sur les autres, on est vraiment bien. Et bien à 400, on a vraiment trois résultats qui
07:32sont pas bons, mais un qui est parfait et qui met en avant la bouteille par rapport au personnage.
07:38Que sur 100, on avait plus un équilibre entre les deux. Mais là, à 400, on a vraiment la bouteille qui
07:43est mis en avant. Et par contre, quand on arrive à 1000, soit on a la fusion de Dark Vador à
07:47l'intérieur de l'étiquetage, soit il est complètement oublié, mais on a une ambiance Star Wars autour,
07:53comme par exemple ici ou ici. Encore une fois, on peut avoir de très bons résultats comme des choses
07:58catastrophiques. Mais ça dépend aussi de la complexité de notre image de base. Par exemple ici, j'ai généré une
08:04Mustang avec mid-journée. Si je la prends, que je l'utilise en omniréférence et que je marque simplement
08:10A car on the Miami Beach. Hop, je vais mettre à 100. On voit ici encore, on a un bon résultat.
08:18Ici, il nous a inventé la bande blanche et ici, il nous l'a transformé en Mercedes. Donc encore une fois, entre 100
08:26et 400 pour avoir les meilleurs résultats, si nos paramètres d'esthétique ne sont pas trop forts. Enfin, comme sur caractère référence,
08:33on peut le faire à partir de personnages imaginaires. Hop, comme par exemple celui-ci, en omniréférence A200.
08:40Ça peut être intéressant de bien décrire notre personnage principal pour aider Lya à s'en sortir et
08:46marquer ensuite l'action, l'environnement, pour avoir de bons résultats. Et la dernière possibilité,
08:51malgré le fait que nous ne pouvons pas glisser plusieurs images dans omniréférence, c'est que tout
08:57de même, si on sélectionne deux personnages comme par exemple cette photo et qu'on la met dans omniréférence,
09:03on va mettre A200. On peut facilement reproduire les deux personnages sans trop de difficultés.
09:14Une fois de plus, je reste sur ma fin avec Midjournée. Je pense que l'accessibilité au grand
09:19public est encore trop compliqué. La V7 est très bien, cette nouvelle fonctionnalité d'omniréférence
09:25aussi. Mais honnêtement, par rapport à d'autres, il y a un manque d'accessibilité et ça pourrait
09:30décourager les débutants. D'autant plus que d'autres générateurs d'IA comme Leonardo AI proposent
09:37désormais les fonctions vidéo, quand de son côté idéogramme retranscrit le texte parfaitement par
09:43rapport à Midjournée. Et si à cela on ajoute les nouvelles possibilités qu'on a avec la nouvelle version de
09:49Chat GPT, même si on est encore très loin de la qualité artistique de Midjournée, la compréhension
09:54de Prompt est beaucoup plus facile et l'accessibilité beaucoup plus intuitive. Et même si on va plus loin
10:00sur certains générateurs de vidéos IA, nous avons déjà la fonction caractère référence, sauf que ici,
10:07notre personnage principal sera mis en scène à travers une vidéo. Donc voilà, n'hésite pas à me dire
10:12ce que toi tu en penses en commentaire. C'était Marco et je te dis à très bientôt sur le Labo des
10:16réseaux pour d'autres tutos autour de la création contenu de l'IA et des réseaux sociaux.
Commentaires