Qui paie quand une œuvre nourrit une IA ?
Un dessin, une chanson, une photo ou une voix peuvent-ils servir à entraîner une intelligence artificielle sans accord, ni rémunération ? C’est la question posée au Sénat, où une proposition de loi veut remettre les artistes au centre du jeu.
Le débat ne tombe pas du ciel. Depuis l’essor de l’IA générative, des modèles sont nourris avec d’immenses volumes de données trouvées en ligne, y compris des contenus protégés par le droit d’auteur. En France, le droit d’auteur protège déjà les créateurs, mais la bataille porte désormais sur la preuve, la transparence et le partage de la valeur. Le Sénat examine ce sujet alors que l’Union européenne a adopté son règlement sur l’IA en juin 2024, avec des obligations de transparence pour les modèles à usage général, notamment sur les données d’entraînement et le respect des réserves de droits.
Une présomption contre les fournisseurs d’IA
La proposition de loi, enregistrée au Sénat le 12 décembre 2025, a été déposée par plusieurs sénateurs et sénatrices, dont Laure Darcos, Agnès Evren, Pierre Ouzoulias, Laurent Lafon, Catherine Morin-Desailly et Karine Daniel. Elle est examinée en séance publique le mercredi 8 avril 2026, après un passage en commission début avril.
Le cœur du texte est simple à dire, plus délicat à écrire. Il crée une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle. Concrètement, si une œuvre est reprise ou utilisée pour entraîner un modèle, ce ne serait plus à l’artiste de démontrer l’usage. Ce serait au fournisseur d’IA de prouver le contraire. Le texte prévoit aussi que, si l’exploitation est établie, les plateformes versent des droits d’auteur aux ayants droit concernés.
Le mécanisme inverse donc la charge de la preuve. Aujourd’hui, un créateur doit souvent montrer qu’un modèle a puisé dans son œuvre pour produire une image, un son ou un texte proches de l’original. Demain, si le texte va au bout, l’entreprise d’IA devrait justifier ses jeux de données et ses usages. Le Sénat présente cette présomption comme « simple » ou « réfragable » : elle pourrait être renversée si le fournisseur apporte ses preuves.
Ce que cela changerait, très concrètement
Pour les artistes, les auteurs, les musiciens, les éditeurs ou les producteurs, l’enjeu est clair : gagner un levier juridique face à des acteurs technologiques puissants et souvent opaques. Le texte vise aussi un effet de négociation. En rendant la preuve plus lourde pour les fournisseurs d’IA, les sénateurs espèrent les pousser à ouvrir des discussions sur des licences et des rémunérations sectorielles.
Pour les entreprises d’IA, la contrainte serait forte. Elles devraient documenter davantage leurs sources, leurs pratiques de collecte et leurs mesures de conformité. Cela peut protéger les créateurs, mais cela alourdit aussi les coûts juridiques et techniques des modèles, surtout pour les entreprises qui entraînent leurs systèmes à grande échelle. Le texte touche donc d’abord les grands fournisseurs, américains, européens ou français, qui disposent de moyens pour absorber cette nouvelle exigence. Les plus petits acteurs, eux, risquent d’y voir une barrière supplémentaire à l’entrée.
Le rapport de force est au centre du sujet. Le Sénat dit vouloir corriger une asymétrie : d’un côté, des titulaires de droits dispersés ; de l’autre, des plateformes capables d’ingérer des masses de données en quelques heures. Dans l’exposé des motifs, les sénateurs décrivent l’entraînement des modèles comme un usage massif de contenus accessibles en ligne, souvent sans autorisation ni rémunération. C’est cette réalité économique qui nourrit le texte : plus un modèle a besoin de données, plus la tentation est grande de puiser dans le stock culturel existant sans passer par la case contrat.
Un Sénat plutôt favorable, une Assemblée plus incertaine
Au Sénat, les chances d’adoption semblent réelles. La proposition est portée sur des bases transpartisanes, avec des sénateurs de plusieurs sensibilités, et elle a déjà reçu un soutien politique en commission. Laure Darcos affirme que le texte pourrait réunir une majorité dans l’hémicycle. Le point dur se jouera ensuite à l’Assemblée nationale, où l’équilibre politique et les arbitrages sur le numérique peuvent rendre l’adoption plus compliquée.
La majorité des défenseurs du texte le présentent comme un outil de régulation, pas comme une guerre contre l’innovation. L’idée est de fixer une règle du jeu avant que les usages ne se figent. Le ministère de la Culture, de son côté, pousse depuis 2024 plusieurs travaux sur la transparence des données d’entraînement et sur la rémunération des contenus culturels utilisés par les systèmes d’IA. Cela montre que la ligne française cherche un équilibre : soutenir l’innovation, mais imposer davantage de transparence et de respect des droits.
Face à cela, la tech reste plutôt sur la défensive. Le texte ne se contente pas de demander plus d’information : il ouvre la voie à des obligations de preuve et à une rémunération potentielle. Pour les entreprises d’IA, le message est clair : l’entraînement de modèles n’est plus un angle mort juridique. Pour les créateurs, le pari est inverse : transformer une logique de captation en logique de négociation.
Ce qu’il faut surveiller dans les prochains jours
Le premier test aura lieu mercredi 8 avril 2026 au Sénat. Si le texte est adopté, il faudra ensuite regarder ce qu’en fera l’Assemblée nationale, où le débat promet d’être plus serré. C’est là que se jouera la vraie question : la France deviendra-t-elle le premier pays à poser, dans la loi, une présomption d’exploitation des œuvres par les fournisseurs d’IA ?













