Passer au playerPasser au contenu principal
  • il y a 2 jours
Lundi 16 février 2026, retrouvez Gérard Haas (Avocat fondateur, Haas avocats) dans LEX INSIDE, une émission présentée par Arnaud Dumourier.

Catégorie

🗞
News
Transcription
00:01Musique
00:10On utilise tous de plus en plus des outils d'intelligence artificielle
00:14pour générer des textes, des images, de la vidéo,
00:17mais une question revient sans cesse,
00:19qui est l'auteur de ce que produit une IA ?
00:22Est-ce protégé et que se passe-t-il si l'IA copie sans le dire ?
00:26Pour répondre à ces questions, j'ai le plaisir de recevoir sur notre plateau,
00:29Gérard Asse, avocat, fondateur de Asse-Avocat.
00:33Gérard, bonjour.
00:34Bonjour Arnaud.
00:35Alors pour commencer, c'est bien de poser le cadre.
00:38Une œuvre générée par l'IA est-elle protégée par le droit d'auteur ?
00:43La question, très simplement, une machine ne peut pas être un auteur.
00:49C'est le premier point.
00:51Deuxièmement, on ne reconnaît pas une personnalité juridique à une machine.
00:54Donc il faut aller un peu plus en profondeur pour voir comment on a généré en fait cette création.
01:02Et là, on a deux possibilités.
01:04Soit elle émane d'un prompt qui est assisté, soit elle émane d'un prompt qui est automatisé.
01:11Si c'est un prompt qui est automatisé, il n'y a pas de problème, il ne peut pas y
01:14avoir de protection.
01:15Ça veut dire quoi un prompt automatisé ?
01:17Ça veut dire, vous posez la question, améliore ce texte.
01:20C'est très générique et il fait une fonction qui est purement technique.
01:24En revanche, vous pouvez avoir un prompt qui est assisté.
01:27Et donc dans le script, on va essayer de regarder s'il y a des éléments qui permettent d'avoir
01:32une originalité.
01:33Et à partir de ce moment-là, il peut y avoir une protection.
01:37C'est quoi des éléments qui permettent d'avoir une originalité ?
01:40Alors vous savez, il y a un grand débat autour de l'originalité qui est en crise.
01:44C'est une notion qui est en crise.
01:46Traditionnellement, c'était l'empreinte de la personnalité.
01:49Elle est devenue ensuite, avec le temps, un apport créatif ou une marque d'une personnalité.
01:56Donc l'originalité, elle est toujours appréciée par un juge.
01:59Mais c'est quelque chose qui se démarque de réflexes purement techniques qui vont au-delà,
02:05qui sont caractérisés et qui, quelque part, émanent d'un auteur.
02:09Et donc il y a sa trace.
02:11On pourrait dire qu'il y a un Mozart, pourtant c'est toujours les mêmes notes de musique.
02:15Vous voyez, il y a quelque chose qui est important.
02:18Et puis, vous l'avez vu, il y a une jurisprudence qui est très intéressante autour d'une photographie
02:23qui avait été réalisée avec l'appareil d'un photographe par un singe.
02:27Et qu'est-ce qu'elle dit alors ?
02:28Elle dit qu'en fait, un singe, c'est un animal, ce n'est pas une personne humaine.
02:31Et l'appareil, il appartient peut-être à quelqu'un, mais ce qui a été réalisé ne peut pas être
02:35protégé par le droit d'auteur.
02:36Alors, ce qui est important de ce que je comprends, c'est la titularité des droits.
02:41À qui appartiennent les droits qui sont générés par une intelligence artificielle ?
02:46Donc ça, c'est très intéressant parce qu'une intelligence artificielle, si elle n'est pas créateur,
02:50si elle n'a pas de personnalité, elle ne peut pas avoir non plus de responsabilité.
02:54Donc forcément, quelque part, on va essayer de regarder la chaîne qui s'est trouvée au niveau du déployeur,
03:02l'éditeur, la personne qui a posé des questions.
03:04Et donc forcément, quelque part, il y aura une personne qui est au bout de la chaîne
03:08et cette personne-là qui pourrait être identifiée sera le responsable.
03:12Alors, comment on fait justement pour l'identifier, ce responsable ?
03:15Il va y avoir des éléments caractéristiques ?
03:18Généralement, si vous voulez, il y a quand même une valorisation de ce qui a été fait.
03:23Donc la personne qui est au bout de la chaîne se déclare comme telle.
03:27Donc on pourrait dire qu'il y a une présomption, si vous voulez, de titularité.
03:31Et donc il y a un élément de responsabilité qui va avec.
03:35Après, à lui de montrer, ou à cette personne de montrer que, en fait,
03:39ce n'est pas elle qui est à l'origine ou au départ de la démarche.
03:44Et c'est facile à démontrer cela ?
03:49Généralement, il y a quelqu'un qui revendique en fait une titularité.
03:52Donc on arrive à le démontrer, oui.
03:54Alors il y a une question qui revient sans cesse aussi.
03:57C'est la question de l'entraînement des modèles.
03:59Les données qu'on injecte pour entraîner les IA, est-ce qu'elles sont aussi protégées ?
04:04Comment ça se passe si justement on injecte des données qui sont protégées par le droit d'auteur dans une
04:09IA ?
04:09Alors, c'est la vraie difficulté.
04:12C'est qu'à la source, il y a des contenus qui étaient en fait ou qui sont protégés par
04:17le droit d'auteur.
04:18Alors, déjà, il faut distinguer ce qui est dans le domaine public et utilisable,
04:22ce qui est plus ou moins des règles techniques et générales,
04:26qui sont les règles de l'art aussi et qui sont elles aussi libres de droit.
04:29Mais vous avez en fait des contenus qui peuvent être protégés avec des auteurs derrière.
04:35Le problème, c'est que là-dessus, aussi bien aux États-Unis qu'en Europe,
04:41on a en Europe une directive qui permet et qui autorise une dérogation au droit d'auteur qui s'appelle
04:46la fouille des données.
04:47Et ça veut dire quoi, cette exception ?
04:48La fouille des données, elle permet, si vous voulez, enfin de pouvoir enrichir,
04:52entraîner en fait un outil, une intelligence artificielle.
04:56Eh bien, s'il n'y a pas d'interdiction de pouvoir l'ingurgiter, eh bien, on peut l'utiliser.
05:05Et donc, si vous voulez, jusqu'en 2002, ils ont fait ce qu'ils voulaient, tous les développeurs et les
05:10déployeurs d'IA.
05:12Depuis 2022, on a la possibilité, depuis que cette directive est rentrée en vigueur,
05:16de pouvoir dire qu'on bloque l'utilisation.
05:20Et donc, à ce moment-là, on est dans une infraction en pouvant remonter, si vous voulez, les droits.
05:25Il y a une décision très intéressante en Allemagne qui est venue montrer que dans des chansons folkloriques,
05:31mais qui étaient vraiment identifiées et qui étaient reproduites de manière servile,
05:36eh bien, on a pu remonter les 18 chansons, on fait l'objet en disant,
05:39ben voilà, vous avez enfin les règles, etc.
05:41Et donc là, il y a bien une contrefaçon.
05:43C'est quoi pour vous les enseignements de cette décision ?
05:47Je pense qu'aujourd'hui, il y a des préconisations à mettre en place.
05:50C'est-à-dire que tout auteur qui veut protéger ses contenus doit dire,
05:53on ne peut pas les intégrer dans une IA.
05:55Et il faut le faire d'une manière générale, le généraliser.
05:59Ce qui est la protection pour le futur, en tout cas, et qui permet, si vous voulez, de revendiquer les
06:03droits.
06:04L'avenir aussi, à mon avis, c'est d'aller vers des droits voisins,
06:08une protection peut-être sui generis, qui reconnaîtra, non pas ce qui est dans l'entraînement,
06:13mais ce qui est sorti, enfin, il y a ce qui entre et ce qui sort.
06:17Et s'il y a, en fait, des éléments qui permettent d'avoir une sortie un peu sophistiquée
06:22et qui est caractérisée d'une démarche, il pourrait y avoir des protections.
06:27Donc aujourd'hui, il faut, selon vous, adapter l'arsenal juridique vers ce que vous proposez ?
06:33Oui, parce que remonter la chaîne des contrefaçons, un pixel, c'est un pixel, c'est très compliqué.
06:40Alors, il y avait une tentative qui, à mon avis, n'était pas très sérieuse,
06:46d'un député qui voulait mettre en place une présomption en disant que, par nature,
06:50tous les contenus étaient originaux et donc, ce serait au déployeur d'apporter la preuve que ça ne l'est
06:57pas.
06:57Donc, ça aurait limité l'usage de l'IA.
06:59Oui, mais ce n'est pas... Aujourd'hui, l'usage est important.
07:04Les gens veulent utiliser l'IA.
07:06Tout ce qui est la freine n'est pas...
07:09Non, il faut... Justement, on a des moyens de bloquer,
07:12de mettre en place des préconisations.
07:15Et j'allais dire aussi que la grande finalité, aussi, c'est de constituer des règles propriétaires
07:22dans lesquelles chacun va pouvoir aller piocher sur des contenus qui sont, si vous voulez, protégés
07:27et sur lesquels on a acquitté des droits pour ne pas avoir de problème.
07:32Il faut voir aussi que tous les éditeurs de solutions d'intelligence artificielle
07:37ou de systèmes d'intelligence artificielle passent des accords avec le monde, avec les journaux, etc.,
07:41de telle manière à éviter les problèmes.
07:45J'allais dire qu'il y a un gros débat qui est peut-être, à mon avis, du bluff.
07:49C'est-à-dire qu'on attaque par la contrefaçon, en sachant très bien qu'on ira sur le plagiat
07:53ou la concurrence déloyale, mais c'est pour faire une pression dans le cadre de négociations.
07:57D'accord. C'est ça, pour vous, le bluff ? C'est juste pour faire pression ?
08:00Moi, je pense que c'est légitime, en fait, de trouver qu'on pille des systèmes,
08:04mais vous avez des dérogations qui les autorisent.
08:07Vous avez aussi les mêmes dérogations au niveau des responsabilités demain sur les produits défectueux.
08:11Donc, en fait, si vous voulez, il faut avoir une approche sérieuse de la problématique
08:15et, si vous voulez, être, j'allais dire, à une longueur d'avance.
08:20Donc, il y a aujourd'hui des moyens à mettre en place.
08:23Peut-être qu'il faudrait réfléchir véritablement à créer une licence globale,
08:27une licence légale pour pouvoir utiliser,
08:29ce qui simplifierait la démarche et éviterait des litiges qui sont de pure,
08:38si vous voulez, de force, chacun essayant de montrer qu'il est plus fort que l'autre.
08:42Mais à la fin, on sait toujours qui c'est qui gagne.
08:44On va conclure là-dessus. Merci, Gérard Asse.
08:47Je rappelle que vous êtes avocat fondateur de Asse Avocat.
08:50Merci.
08:51Tout de suite, l'émission continue.
08:52Cette émission spéciale Ginov avec l'automatisation des contrats.
08:56Merci.
Commentaires

Recommandations