Législation européenne : IA générative, violations du droit d’auteur et responsabilité – Je suppose qu’il s’agira d’un sujet brûlant en 2024

Photo par Photographie possédée sur Unsplash

La fatigue du Nouvel An ? Ou peut-être la fatigue de l’IA ? Mais la nouvelle année ne fait que commencer ! Il semble que le sujet de l’IA et du droit d’auteur ait été omniprésent dans le monde du droit d’auteur l’année dernière. Alors que certains sujets numériques sont connus pour provoquer une grande agitation dans les cercles du droit d’auteur pour ensuite sombrer pratiquement sans laisser de trace, sauf erreur de ma part, la question des implications de l’IA en matière de droit d’auteur est différente.

Un sujet de l’IA, qui n’a jusqu’à présent été examiné de manière approfondie en relation avec le droit d’auteur de l’UE que dans quelques cas, est la violation du droit d’auteur par l’IA générative et la responsabilité qui en découle. À cet égard, deux aspects doivent être examinés séparément : quand la production de l’IA constitue-t-elle une violation et qui est responsable de la production de l’IA violant le droit d’auteur ?

(1) Quand les résultats de l’IA constituent-ils une infraction ?

À mon avis, les règles existantes devraient s’appliquer pour répondre à cette question. La sortie de l’IA peut être considérée comme une reproduction portant atteinte aux droits si elle est identique à l’œuvre originale. De même, la production de l’IA peut être considérée comme une reproduction portant atteinte aux droits si l’original peut y être reconnu. La CJUE a fondé son arrêt sur cette question dans l’affaire « Pelham » sur l’aspect de la reconnaissabilité lorsqu’il s’agissait du droit voisin du producteur de disques en vertu de l’article 2 de la directive InfoSoc (2001/29) (C-476/17 – Pelham). Il devrait en être de même en ce qui concerne le droit de reproduction de l’auteur (voir par exemple Cour fédérale de justice allemande (BGH) GRUR 2022, 899 – Porsche911qui fait référence à Pelham jurisprudence de la CJUE, C-476/17), même si une décision définitive de la CJUE sur ce point, dans une affaire déférée par le tribunal suédois (C-580/23 – Mio je), est toujours en attente.

Cela dit, il peut y avoir une limitation sur ce qui constitue une violation du droit d’auteur en vertu des règles actuelles, même dans les cas où la sortie de l’IA est identique à l’original ou si l’original est au moins reconnaissable. Ce serait le cas où l’IA générative n’a pas été entraînée à l’aide de l’original et où il existe une situation qui, pour les œuvres réalisées par un humain, serait décrite comme une « (double) création indépendante ». Les systèmes d’IA devraient-ils pouvoir bénéficier de la défense contre la création indépendante accidentelle ? Il semblerait que nous devions trouver une réponse à cette question. Si la défense de la création indépendante est admise, la charge de la preuve que l’œuvre originale a été pas utilisé pour la formation de l’IA générative pourrait, en raison de preuves circonstancielles du contraire, incomber à la partie invoquant ce moyen de défense. En Allemagne, par exemple, cela serait conforme aux règles relatives à la charge de la preuve en cas de création indépendante. La charge de la preuve permettant d’établir que l’œuvre la plus récente a été créée indépendamment de l’œuvre plus ancienne incombe en principe à l’auteur de l’œuvre la plus récente. Par exception, cette règle ne s’applique pas si l’œuvre plus ancienne a très peu d’originalité et si l’œuvre plus récente présente des différences substantielles par rapport à l’œuvre plus ancienne (voir Axel Nordemann dans Fromm/Nordemann, Commentaire sur la loi allemande sur le droit d’auteur, 12ème édition, article 24, paragraphes 64-65 avec des exemples tirés de la jurisprudence allemande).

(2) Qui est responsable des productions d’IA violant le droit d’auteur ?

Il est relativement facile de répondre à la question de la responsabilité de l’utilisateur du résultat de l’IA lorsque l’utilisateur utilise le résultat de l’IA d’une manière qui relève du droit d’auteur. Ici, les règles générales s’appliquent. Toute personne reproduisant les résultats de l’IA (article 2 de la directive InfoSoc), les distribuant (article 4 de la directive InfoSoc) ou les communiquant au public (article 3 de la directive InfoSoc) est responsable conformément aux règles en vigueur.

Cela fait intervenir la jurisprudence de la CJUE sur la notion de communication. Selon cette conception, même ceux qui ne provoquent qu’indirectement une communication peuvent être considérés comme ayant accompli un acte de communication. L’exigence est (1) un rôle indispensable dans l’acte de communication et (2) le « caractère délibéré de l’intervention ». Bien que « délibéré » puisse donner l’impression de signifier « intentionnel », cette dernière exigence peut être satisfaite par une simple violation négligente de certaines obligations de diligence (C-682/18 et C-683/18 – YouTube et Cyando). Ce concept a désormais également été adopté dans les systèmes juridiques nationaux des États membres, par exemple par la BGH (Cour fédérale de justice) allemande (voir notre article précédent ici).

Une autre question est de savoir qui est réellement responsable de la production de l’IA. lui-même? L’opérateur d’IA est-il responsable ? Il n’existe actuellement aucune responsabilité spécifique des opérateurs au niveau de l’UE en cas de violation du droit d’auteur dans le domaine de l’IA générative. Cependant, les opérateurs d’IA pourraient être tenus responsables en vertu des règles générales, mais normalement uniquement en cas de reproduction non autorisée sous la forme du résultat de l’IA (article 2 de la directive InfoSoc). Dans le cas des fournisseurs de logiciels et de matériel informatique qui n’ont aucun moyen d’influencer les utilisateurs, la CJUE a décidé que les principes susmentionnés ne s’appliquent pas (C-426/21 – Ocilion). Le BGH allemand a également souligné à plusieurs reprises que la responsabilité en tant qu’auteur ne peut pas s’appliquer aux fournisseurs de logiciels, car l’utilisateur du logiciel est généralement l’auteur et le contrôle de l’infraction (I ZR 32/19 – Internet-Radiorekorder).).

Cependant, un certain nombre d’aspects incitent à ne pas simplement appliquer la jurisprudence sur l’utilisation de logiciels directement aux productions d’IA violant le droit d’auteur. Une approche différenciée semble plutôt préférable. Fournir un système d’IA implique bien plus que simplement fournir un logiciel permettant aux utilisateurs de créer des reproductions à leur propre discrétion. Le système d’IA peut déterminer de manière significative le contenu de la sortie. Une idée serait donc d’attribuer la reproduction selon qui détermine l’orientation du contenu.

  • Si l’IA n’est qu’un outil technique de l’utilisateur et que la détermination se concentre sur l’utilisateur de l’IA (par exemple via ses invites), seul l’utilisateur de l’IA peut être considéré comme un auteur.
  • Cependant, la situation devrait être différente si la détermination du contenu se concentre sur l’IA générative. Dans ce cas, la reproduction et la responsabilité en tant qu’auteur pourraient être imputées à l’opérateur d’IA. Par exemple, ce serait le cas si l’utilisateur de l’IA n’avait donné que des spécifications très mineures dans ses invites.

La responsabilité de l’opérateur de l’IA selon ces principes ne doit pas être exclue du fait que l’IA générative produit les résultats de l’IA portant atteinte aux droits dans le cadre d’un processus automatisé. Pour d’autres contenus générés automatiquement – ​​par exemple, des listes de résultats éditoriaux avec des vignettes dans les moteurs de recherche – l’exploitant du système peut néanmoins être tenu responsable.

Si l’IA générative crée effectivement une production portant atteinte aux droits sans contrôle de la violation, il ne faut cependant pas exclure toute responsabilité de la part de l’opérateur de l’IA. Après tout, l’IA reste la cause indirecte de l’infraction. Il faut donc se demander si le modèle de responsabilité de la CJUE mentionné ci-dessus, tiré de YouTube et Cyandopeut être appliqué ici également.

Si ce modèle doit être appliqué à la responsabilité des opérateurs d’IA, il faudrait que le modèle de responsabilité de la CJUE de YouTube et Cyando être étendu aux violations du droit de reproduction au titre de l’article 2 de la directive InfoSoc. Jusqu’à présent, la CJUE ne l’appliquait qu’au droit de communication au public au titre de l’article 3 de la directive InfoSoc. Il existe de nombreux arguments en faveur d’une extension du droit de reproduction, car même avec un droit de reproduction pleinement harmonisé en vertu de l’article 2 de la directive InfoSoc, la question de savoir qui effectue la reproduction ne devrait pas être laissée aux États membres de l’UE. . À cet égard, il en va de même pour le droit de communication au public pleinement harmonisé en vertu de l’article 3 de la directive InfoSoc.

Lors de l’application du modèle de responsabilité, il semble opportun d’attribuer un rôle indispensable à l’IA générative en cas de violation du droit de reproduction. L’IA générative est encore plus impliquée dans l’infraction que les plateformes vidéo, dont la CJUE a confirmé le rôle indispensable dans cette affaire. YouTube et Cyando. Les devoirs de diligence des opérateurs d’IA dans le cadre des échanges commerciaux, qui déterminent le caractère délibéré de leurs actions, doivent bien entendu être proportionnés. Bien que le simple fait de l’automatisation et de l’autonomisation ne puisse pas éliminer la responsabilité dans tous les cas, il peut avoir un effet atténuant sur la responsabilité lorsqu’il s’agit de définir les devoirs de diligence, en particulier dans le cas de modèles économiques souhaitables. Il convient de se demander si les trois devoirs de diligence développés par la CJUE pour les plateformes vidéo (paragraphe 102 – YouTube et Cyando) peut être appliqué sous une forme adaptée aux opérateurs de systèmes d’IA générative.

Conclusion

Nous, avocats spécialisés dans le droit d’auteur, ne devrions pas nous détourner de l’examen et de l’investigation des sujets liés à l’IA. Il y a beaucoup de matière à discussion, par exemple sur la question de la responsabilité en cas de production portant atteinte aux droits de l’IA générative. Bonne et heureuse année à tous !

Il s’agit d’une version adaptée d’un éditorial en allemand rédigé par l’auteur pour la revue allemande sur la propriété intellectuelle Industrial Legal Protection and Copyright (GRUR), Volume 1/2024. L’auteur souhaite remercier Adam Ailsby, Belfast (www.ailsby.com), auteur de la majeure partie de la traduction anglaise.