20 March 2025

Temps de lecture : 2 min

OpenAI et Google veulent affaiblir le droit d’auteur pour l’IA générative

Face à la multiplication des poursuites judiciaires contre des spécialistes de l'intelligence artificielle, les deux géants du secteur demandent de l'aide à l'administration Trump. Ils militent en particulier pour une généralisation du concept d'usage raisonnable, qui leur permettrait d'utiliser des contenus protégés sans avoir à rémunérer leurs ayants droit. Et sans craindre des actions en justice.

Face à la menace chinoise, symbolisée par les récentes avancées de la start-up DeepSeek, OpenAI presse le gouvernement américain d’assouplir la législation sur le droit d’auteur. Le concepteur de ChatGPT milite ainsi pour une généralisation du fair use (qui autorise un “usage raisonnable” des œuvres protégées) pour l’entraînement des modèles d’intelligence artificielle générative.

“Ce n’est pas seulement une question de compétitivité américaine, c’est une question de sécurité nationale”, assure le concepteur de ChatGPT, dans un courrier adressé à la Maison blanche dans le cadre d’une consultation publique lancée par l’administration Trump. Celle-ci doit déboucher, cet été, sur un “plan d’action” pour s’assurer de la domination américaine dans le secteur.

Une définition juridique très générale

Dans ce combat, OpenAI n’est pas seul. Moins alarmiste que son rival, Google se prononce aussi pour un affaiblissement du droit d’auteur. Le moteur de recherche assure que l’utilisation de contenus pour la conception de modèles d’IA est “sans d’impact significatif sur les ayants droit”. Et il souligne que le recours généralisé au fair use permettra d’éviter “des négociations souvent longues et imprévisibles avec les détenteurs de données”.

Établi en 1976, le concept de fair use est au cœur de l’application du droit d’auteur aux États-Unis. Mais sa définition juridique reste très générale, sans critères précis pour déterminer quand l’utilisation d’une œuvre peut être considérée comme raisonnable. Cela laisse de la place à l’interprétation. Cette limite est encore plus grande dans le cadre de l’IA générative, qui repose sur l’utilisation de contenus protégés pour créer des textes, des images ou des vidéos.

Les modèles ne sont pas “entraînés à ne pas reproduire des œuvres”, fait ainsi valoir OpenAI. À l’inverse, ils créent “quelque chose de totalement nouveau et différent”. Ce principe de “valeur transformative” est mis en avant par les acteurs du secteur. Mais un tribunal américain a récemment estimé que cela n’était pas suffisant pour invoquer, à lui seul, le fair use.

Contre les clauses d’opt-out

Depuis le lancement de ChatGPT fin 2022, les procédures judiciaires se sont accumulées contre la société dirigée par Sam Altman. La start-up a notamment été attaquée par le New York Times et par l’Authors Guild, une association regroupant plus de 14.000 auteurs américains. Google est aussi ciblé par des ayants droit, tout comme Meta, Nvidia ou encore la start-up Stability AI, poursuivie par la banque d’image Getty.

À chaque fois, ces entreprises sont accusées d’avoir utilisé des contenus sans autorisation ni rémunération. La loi américaine prévoit jusqu’à 150.000 dollars par infraction constatée. Face aux risques juridiques, OpenAI multiplie les accords de licence avec des groupes de presse. Mais cette voie reste trop limitée pour lui permettre d’atteindre ses grandes ambitions. Une généralisation du fair use lui faciliterait grandement la tâche.

L’entreprise se prononce également contre les clauses d’opt-out, qui permettent aux médias de refuser l’utilisation de leurs contenus en ligne pour l’entraînement de modèles d’IA. Cette disposition a été mise en place en Europe. “Ces règles rigides pénalisent l’innovation”, assure OpenAI. Moins loquace sur le sujet, Google appelle tout de même Washington à “lutter contre les barrières étrangères restrictives”. 

Allez plus loin avec Minted

LA NEWSLETTER

LES ÉVÉNEMENTS

LES ÉMISSIONS