Le 14 janvier 2025, une audience cruciale s’est tenue devant un tribunal fédéral américain dans le cadre du procès intenté par The New York Times contre OpenAI et Microsoft pour violation de droits d’auteur. Cette affaire, qui a débuté en décembre 2023. Elle soulève des questions sur l’utilisation de contenus protégés par l’intelligence artificielle et pourrait redéfinir les contours juridiques de l’industrie de l’IA.
Le New York Times contre OpenAI
Le litige porte sur l’utilisation présumée par OpenAI de millions d’articles du New York Times pour entraîner ses modèles d’IA, notamment ChatGPT, sans autorisation ni compensation. Les plaignants, qui incluent également The New York Daily News et le Center for Investigative Reporting, affirment que cette pratique constitue une violation massive des droits d’auteur.
Les avocats du New York Times ont argumenté que l’utilisation de leur contenu par OpenAI pour entraîner ses modèles de langage va au-delà de la simple extraction d’informations. Ils soutiennent que les modèles d’IA, contrairement aux humains, ne peuvent pas simplement « comprendre » l’information, mais doivent absorber l’expression des faits, ce qui constituerait une violation du droit d’auteur.
En réponse, OpenAI et Microsoft invoquent la doctrine du « fair use » (utilisation équitable. Voir ci-dessous pour découvrir les arguments utilisés) pour justifier leurs pratiques. Leurs avocats ont affirmé que le traitement de contenu journalistique par l’IA n’est pas illégal, comparant cette avancée technologique à d’autres innovations historiques comme le magnétoscope ou le moteur de recherche.
Un point de contentieux majeur concerne les exemples fournis par le New York Times pour étayer ses accusations. OpenAI a contesté la validité de ces exemples, les qualifiant de « trompeurs » et affirmant que les plaignants auraient exploité des failles de ChatGPT pour générer du contenu violant les conditions d’utilisation d’OpenAI.
Le procès du New York Times contre OpenAI et Microsoft audience du 14 janvier 2025
L’audience du 14 janvier 2025 s’est concentrée sur la requête d’OpenAI visant à rejeter l’affaire. Le juge devra déterminer si le procès peut avancer vers un procès complet ou s’il doit être rejeté. Les implications de cette affaire sont considérables. Si les éditeurs l’emportent et qu’un juge fédéral ordonne la destruction du jeu de données de ChatGPT, cela pourrait gravement perturber les opérations d’OpenAI, forçant l’entreprise à reconstruire sa base de données en n’utilisant que du contenu autorisé.
Cette affaire s’inscrit dans un contexte plus large de litiges impliquant l’IA et les droits d’auteur. D’autres entités médiatiques, comme l’Associated Press, News Corp. et Vox Media, ont opté pour des accords de partage de contenu avec OpenAI, tandis que les plaignants dans cette affaire ont choisi une approche plus conflictuelle.
Le Fair Use : les 6 arguments clés de défense d’OpenAI
- L’utilisation transformative : OpenAI soutient que l’utilisation de contenu pour entraîner des modèles d’IA générative comme ChatGPT est transformative, car elle sert à analyser les concepts sous-jacents, les méthodes, les faits et les modèles plutôt qu’à reproduire le contenu expressif.
- Comparaison avec l’apprentissage humain : OpenAI compare le processus d’entraînement de l’IA à l’apprentissage humain, arguant que les individus sont autorisés à tirer des connaissances de contenus protégés par les droits d’auteur.
- Absence de substitution : L’entreprise affirme que l’utilisation de contenu pour l’entraînement de l’IA ne remplace pas le journalisme original et ne nuit donc pas au marché potentiel des œuvres originales.
- Précédent Google Books : OpenAI s’appuie sur le précédent de l’affaire Google Books, où la création d’un index de recherche de livres a été jugée transformative et d’intérêt général.
- Reproduction intermédiaire : L’entreprise argue que la reproduction de contenu pour l’entraînement des modèles d’IA est une étape intermédiaire qui ne vise pas à communiquer le contenu expressif original.
- Possibilité de blocage : OpenAI souligne que les éditeurs peuvent facilement empêcher l’IA d’accéder à leur contenu s’ils le souhaitent, affaiblissant ainsi l’argument d’une utilisation non autorisée.
Il faut noter que ces arguments sont contestés, notamment en raison de la capacité de l’IA générative à produire du contenu qui pourrait concurrencer directement les œuvres originales.
L’issue de ce procès, attendue avec impatience, pourrait avoir des répercussions majeures sur l’ensemble de l’écosystème des médias numériques et de l’IA, déterminant la légalité de l’utilisation d’œuvres protégées par le droit d’auteur pour l’entraînement des modèles d’IA sans le consentement des éditeurs.
Laisser un commentaire