10 procès importants contre l’IA

Résumer avec l'IA :

Introduction : pourquoi ces procès comptent autant

Ces procès ne cherchent pas seulement à obtenir des dommages-intérêts. Ils posent les questions les plus profondes du moment : entraîner un modèle sur des œuvres protégées est-il légal ? Un modèle qui “recrache” un contenu proche de l’original engage-t-il la responsabilité de son éditeur ? Une IA conversationnelle est-elle seulement un “outil”, ou un produit potentiellement défectueux ? Un fournisseur de logiciel RH peut-il être responsable des discriminations causées par ses systèmes ? En pratique, ces affaires servent de laboratoire : elles obligent les juges à traduire des concepts techniques comme scraping, training, weights, memorization, hallucination ou fine-tuning en catégories juridiques classiques.

Autre point essentiel : il n’existe pas aujourd’hui un “grand procès unique de l’IA”. Le contentieux est fragmenté. Certaines affaires portent sur l’input — les données d’entraînement. D’autres sur l’output — ce que le modèle produit. D’autres encore sur les effets sociaux de l’IA : manipulation psychologique, discrimination à l’embauche, ou désinformation. C’est justement cette dispersion qui est instructive : elle montre que “l’IA” n’est pas un seul objet juridique, mais une superposition de problèmes de propriété intellectuelle, de responsabilité civile, de droit du travail et de protection des personnes.

1) The New York Times Company v. Microsoft/OpenAI

Cette affaire est devenue le procès emblématique de l’IA générative côté presse. Le New York Times accuse OpenAI et Microsoft d’avoir utilisé ses articles pour entraîner leurs modèles sans autorisation, et soutient aussi que ChatGPT peut parfois reproduire ou très fortement résumer des contenus protégés, ce qui porterait atteinte à son modèle économique. En mars-avril 2025, le juge Sidney Stein a laissé avancer l’essentiel du dossier, notamment les allégations liées aux sorties du modèle et certaines théories de violation du copyright, au lieu de tout écarter au stade préliminaire. Le dossier continue dans le cadre du contentieux coordonné à New York, avec des dépôts encore actifs fin mars 2026.

Ce que ce procès dit de l’IA : il montre que le conflit central n’est plus seulement “l’IA apprend-elle à partir du web ?”, mais l’IA remplace-t-elle des intermédiaires économiques entiers en absorbant leur contenu ? Le Times ne plaide pas seulement la copie ; il plaide la substitution de marché. Juridiquement, c’est crucial : si l’IA devient un produit qui répond à la place du journal, la question n’est plus seulement technique, mais structurelle. Cela révèle aussi que l’enjeu le plus lourd pour les grands modèles n’est pas forcément la donnée “brute”, mais la donnée à forte valeur éditoriale.

2) Daily News / Chicago Tribune / autres journaux v. OpenAI et Microsoft

En avril 2024, plusieurs journaux américains, dont le New York Daily News et le Chicago Tribune, ont à leur tour poursuivi OpenAI et Microsoft pour utilisation non autorisée de leurs contenus journalistiques dans l’entraînement des modèles. Cette vague de plaintes a renforcé l’idée qu’on n’était plus face à une querelle isolée avec un seul média, mais face à un contentieux sectoriel de la presse contre l’IA générative. Le dossier a ensuite rejoint le mouvement de centralisation procédurale autour des affaires OpenAI à New York.

Ce que ce procès dit de l’IA : il révèle que l’IA générative n’entre pas seulement en conflit avec des auteurs individuels, mais avec des industries entières de production d’information. Quand plusieurs groupes de presse attaquent en même temps, cela signifie que le problème n’est pas perçu comme une bavure ponctuelle, mais comme une menace systémique sur la chaîne de valeur du journalisme. Plus fondamentalement, cette affaire montre que l’IA met sous tension le vieux compromis du web ouvert : les éditeurs acceptaient d’être indexés parce qu’ils récupéraient du trafic ; si les modèles absorbent la valeur sans renvoyer l’audience, ce compromis s’effondre.

3) Authors Guild v. OpenAI (et la consolidation des actions d’auteurs)

L’Authors Guild a poursuivi OpenAI au nom d’auteurs affirmant que leurs livres ont été utilisés pour entraîner ChatGPT sans licence. L’affaire a pris encore plus d’importance lorsqu’une série d’actions d’auteurs et de détenteurs de droits ont été consolidées dans le contentieux multidistrict new-yorkais contre OpenAI. En octobre 2025, un juge fédéral a refusé de rejeter à ce stade certaines allégations selon lesquelles les outputs de ChatGPT pouvaient violer le copyright des auteurs, ce qui a été perçu comme un tournant important : la théorie selon laquelle “les sorties générées” peuvent elles-mêmes poser problème a survécu. Le docket de l’affaire et celui du MDL montrent des dépôts encore en mars 2026.

Ce que ce procès dit de l’IA : il distingue deux couches souvent confondues. La première est l’entraînement sur des œuvres protégées. La seconde est la capacité de sortie du modèle. Or ce procès montre que même si un tribunal finissait un jour par juger l’entraînement partiellement protégé par le fair use, cela ne réglerait pas automatiquement le problème des sorties trop proches des œuvres sources. En d’autres termes : une IA peut être juridiquement attaquée non seulement pour ce qu’elle a “mangé”, mais pour ce qu’elle est capable de “recracher”.

4) The Intercept Media v. OpenAI

The Intercept a attaqué OpenAI en soutenant que ses articles avaient été utilisés pour entraîner ChatGPT et que des informations de gestion des droits d’auteur avaient été supprimées. En février 2025, le juge Jed Rakoff a laissé avancer une partie du dossier : il a estimé que The Intercept avait de manière plausible allégué un préjudice lié au retrait des informations de copyright, tout en rejetant d’autres volets. Ce point est important parce qu’il tranche avec d’autres décisions plus dures sur le terrain du DMCA.

Ce que ce procès dit de l’IA : il montre que la bataille n’est pas seulement celle du copyright “classique”, mais aussi celle de la traçabilité. Une partie du monde des médias ne reproche pas uniquement à l’IA d’avoir appris à partir de leurs textes ; elle reproche aussi au pipeline technique d’effacer les marqueurs d’attribution, de provenance et de droit. Cela révèle une vérité profonde sur l’IA générative : elle n’est pas seulement un moteur de synthèse, c’est aussi une machine qui peut désancrer l’information de sa source. Juridiquement et démocratiquement, c’est énorme.

5) Raw Story / AlterNet v. OpenAI

Cette affaire est proche de celle de The Intercept, mais avec une issue intermédiaire différente. En novembre 2024, une juge fédérale de New York a rejeté la plainte de Raw Story et AlterNet contre OpenAI, en expliquant que les demandeurs n’avaient pas suffisamment montré le type de préjudice exigé pour soutenir leur action, tout en leur laissant la possibilité de redéposer une version amendée. Reuters a ensuite utilisé ce dossier, avec celui de The Intercept, pour illustrer la façon dont les juges new-yorkais divergeaient sur la manière de traiter les demandes fondées sur le DMCA.

Ce que ce procès dit de l’IA : il rappelle une chose souvent oubliée : avoir raison moralement ne suffit pas à gagner juridiquement. Beaucoup d’éditeurs disent en substance : “nos contenus ont servi à entraîner des modèles sans notre accord”. Mais encore faut-il entrer dans les bonnes cases du droit existant et prouver un dommage juridiquement cognisable. Cette affaire révèle donc l’un des grands paradoxes de l’IA : la technologie semble nouvelle, mais les juges continuent à demander des démonstrations très classiques sur le lien de causalité, le dommage et la qualification du comportement reproché.

6) Getty Images v. Stability AI (Royaume-Uni)

Getty a poursuivi Stability AI au Royaume-Uni en soutenant notamment que Stable Diffusion avait été entraîné sur des millions d’images Getty sans licence, et que certaines images générées faisaient apparaître le filigrane Getty. En novembre 2025, la Haute Cour anglaise a largement débouté Getty sur le cœur de sa thèse copyright, notamment parce que Getty n’a pas pu démontrer comme il fallait où l’entraînement avait eu lieu, et parce que le tribunal a rejeté l’idée que le modèle lui-même constituait une “copie contrefaisante” des œuvres d’origine. En revanche, Getty a obtenu un succès plus limité sur certains aspects de marque liés au watermark Getty retrouvé dans des outputs.

Ce que ce procès dit de l’IA : il est capital parce qu’il montre que les litiges IA ne sont pas seulement une affaire de principes, mais aussi de géographie technique. Où a eu lieu l’entraînement ? Sur quels serveurs ? Sous quelle loi ? Le dossier Getty révèle aussi une ligne de défense centrale des entreprises d’IA : dire que le modèle n’est pas un “stockage” des œuvres, mais une abstraction statistique. Enfin, la présence de watermarks Getty dans certains résultats raconte quelque chose de très concret : même si le modèle n’embarque pas les fichiers originaux au sens ordinaire, il peut laisser fuiter des signatures d’origine qui nourrissent les soupçons de mémorisation ou de transformation trop proche.

7) Andersen v. Stability AI, Midjourney, DeviantArt, Runway

Cette action collective d’artistes visuels est l’une des affaires les plus structurantes contre les générateurs d’images. Les artistes soutiennent que des œuvres protégées ont été aspirées à très grande échelle, notamment via des datasets comme LAION, pour entraîner des modèles comme Stable Diffusion et d’autres systèmes apparentés. Après une première phase où plusieurs demandes avaient été partiellement écartées, le juge William Orrick a, en 2024, laissé survivre les allégations centrales de violation de copyright contre plusieurs défendeurs. Le dossier reste actif, avec encore des mouvements procéduraux en 2025 et début 2026, y compris autour d’une troisième plainte amendée.

Ce que ce procès dit de l’IA : il expose la thèse la plus ambitieuse des artistes : l’idée que les générateurs d’images ne se contentent pas “d’apprendre un style général”, mais qu’ils peuvent fonctionner comme des systèmes ayant absorbé et recombiné des œuvres spécifiques. Cela force les tribunaux à affronter une question redoutable : qu’est-ce qu’une copie à l’ère des poids de modèle ? Ce dossier montre aussi que l’argument “ce n’est qu’un style” ne suffit pas toujours, car le droit commence à regarder de plus près la chaîne complète : dataset, entraînement, prompts, outputs, et parfois même la possibilité de reproduire l’identité esthétique d’un artiste vivant.

8) Concord / Universal / ABKCO v. Anthropic

Des éditeurs musicaux majeurs ont poursuivi Anthropic au sujet de Claude, en affirmant que le système reproduisait et exploitait illégalement des paroles de chansons protégées. En octobre 2025, une juge fédérale a refusé de balayer certaines demandes de copyright contre Anthropic, notamment sur les théories de contrefaçon contributive et indirecte. Puis, en mars 2026, les éditeurs ont déposé une nouvelle offensive pour obtenir une décision sur la responsabilité et empêcher Anthropic de se retrancher derrière le fair use. Reuters décrit ce dossier comme un test majeur de la défense fair use appliquée à l’IA.

Ce que ce procès dit de l’IA : il montre que la musique est un terrain encore plus dangereux que le texte généraliste. Les paroles sont des objets courts, identifiables, fortement licenciés et faciles à comparer. Là où un débat sur le “résumé de roman” peut devenir gris, la reproduction de paroles peut être beaucoup plus nette. Cette affaire révèle donc que l’IA n’affronte pas un seul droit d’auteur abstrait, mais des marchés de licence très différents selon les secteurs. Elle dit aussi quelque chose de fondamental sur les modèles : plus un système est capable de restituer fidèlement des contenus culturellement reconnaissables, plus sa défense “transformatrice” devient fragile.

9) Mobley v. Workday

Ici, on quitte le copyright pour le droit du travail et la discrimination algorithmique. Derek Mobley soutient que le logiciel de recrutement de Workday l’a écarté de nombreuses candidatures en raison d’un biais affectant notamment la race, l’âge et le handicap. En juillet 2024, un juge fédéral a refusé d’écarter totalement l’affaire, considérant que Workday pouvait devoir répondre au moins à certaines théories de discrimination malgré son argument selon lequel elle n’est ni l’employeur ni le décideur final. Le dossier est resté vivant, et les développements de 2025-2026 ont confirmé la portée potentiellement très importante du litige sur les outils de recrutement assistés par IA.

Ce que ce procès dit de l’IA : il est crucial parce qu’il casse le réflexe “l’algorithme n’a fait que conseiller”. Le contentieux Workday force les tribunaux à regarder l’IA comme un maillon causal réel d’une décision d’embauche. Cela révèle une vérité profonde : dans beaucoup d’usages professionnels, l’IA ne décide pas seule, mais elle structure le champ des possibles avant même que l’humain intervienne. En pratique, un outil qui trie, note, classe ou recommande peut produire des effets discriminatoires massifs sans jamais signer lui-même la décision finale. C’est sans doute l’un des contentieux les plus importants pour l’IA appliquée hors du champ créatif.

10) Megan Garcia v. Character.AI et Google

Cette affaire est l’une des plus saisissantes parce qu’elle ne porte ni sur la propriété intellectuelle ni sur l’emploi, mais sur le dommage humain direct. Une mère de Floride a accusé Character.AI, ainsi que Google, d’avoir contribué au suicide de son fils adolescent après une relation obsessive avec un chatbot incarnant un personnage fictif. En mai 2025, un juge a refusé d’écarter l’affaire au motif que le premier amendement protégeait nécessairement la sortie du chatbot ; puis, en janvier 2026, Reuters a rapporté qu’un accord transactionnel avait été conclu. Même sans jugement au fond, cette affaire est devenue un précédent symbolique majeur.

Ce que ce procès dit de l’IA : il marque peut-être le changement le plus profond de tous : l’IA commence à être traitée non plus seulement comme un système d’information, mais comme un produit susceptible d’être dangereusement conçu. Le cœur de l’allégation n’est pas “l’IA s’est trompée”, mais “l’IA a été designée de façon à favoriser une dépendance émotionnelle, sans garde-fous suffisants”. Cela ouvre un front redoutable pour toute l’industrie des agents conversationnels : quand un modèle parle comme une personne, s’attache, relance, séduit, rassure ou encourage, la frontière entre “contenu” et “architecture de manipulation” devient juridiquement explosive.

Ce que l’ensemble de ces 10 procès nous apprend sur l’IA

Première leçon : le grand sujet n’est pas “l’IA” au singulier, mais quatre régimes de responsabilité distincts. Le premier est celui de la donnée d’entraînement : auteurs, artistes, journaux, photographes. Le deuxième est celui des sorties générées : récitation, résumés trop proches, lyrics, watermark. Le troisième est celui des effets discriminatoires dans les usages professionnels. Le quatrième est celui des dommages humains causés par des systèmes conversationnels conçus pour retenir, convaincre ou engager émotionnellement.

Deuxième leçon : ces procès montrent que le débat juridique le plus important n’est pas seulement “fair use ou pas ?”. Il est aussi : où se situe l’action pertinente ? Dans le scraping ? Dans l’entraînement ? Dans la distribution du modèle ? Dans la sortie générée ? Dans le design du produit ? Les juges commencent à décomposer la chaîne technique au lieu de traiter l’IA comme une boîte noire homogène. C’est un tournant majeur, parce qu’il empêche les entreprises de répondre globalement “c’est juste de la technologie”.

Troisième leçon : la jurisprudence naissante montre que les tribunaux sont souvent plus réceptifs aux cas concrets qu’aux grandes théories abstraites. Les dossiers où l’on peut montrer une sortie reconnaissable, un watermark, des paroles quasi verbatim, un rejet d’embauche répété, ou un dommage psychologique précis, semblent plus faciles à faire avancer que les plaintes purement philosophiques sur “l’IA exploite la culture”. Cela ne veut pas dire que les plaintes systémiques échoueront ; cela veut dire que le droit aime encore les faits très matérialisés.

Quatrième leçon : l’IA est en train de faire éclater les frontières entre branches du droit. On voit du copyright, du DMCA, du droit des marques, du droit du travail, de la responsabilité produit, de la négligence et potentiellement demain davantage de droit de la consommation, de protection des mineurs et de droit de la preuve. Cela dit quelque chose de très profond sur l’IA : ce n’est pas une simple “industrie tech” supplémentaire ; c’est une technologie transversale qui touche à la fois les marchés culturels, le travail, l’information et l’intimité psychique.

La grande conclusion

Ces 10 procès racontent au fond une même histoire. L’IA a été lancée dans le monde réel avec la promesse d’être un outil universel. Les procès montrent qu’elle est déjà devenue autre chose : un acteur juridique diffus, qui copie, résume, classe, influence, filtre, répond, suggère, retient et parfois blesse. Chaque dossier éclaire une facette différente :

  • les procès des auteurs, artistes et médias disent que l’IA repose sur une économie de la donnée encore juridiquement contestée ;
  • Workday dit que l’IA n’est pas neutre quand elle s’insère dans des décisions à fort enjeu ;
  • Character.AI dit qu’une IA conversationnelle peut devenir un risque de conception et pas seulement un risque d’erreur ;
  • Getty et Andersen disent que la question de la “copie” à l’ère des modèles n’est pas du tout réglée ;
  • NYT, Authors Guild et Anthropic disent que la bataille décisive sera peut-être moins “peut-on entraîner ?” que “jusqu’où peut-on monétiser sans licence un système qui concurrence ceux dont il a appris ?”

En une phrase : ces procès montrent que l’IA n’est plus seulement un problème d’innovation ; c’est désormais un problème de pouvoir, de responsabilité et de répartition de la valeur.

Résumer avec l'IA :

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

La Communauté du Kiff vient d'ouvrir ses portes gratuitement et les places sont limitées !

X
Retour en haut