BRÈVES DU 30 MARS AU 5 AVRIL 2026

🌙 Bonjour à toutes et à tous !

📚 Les brèves de la semaine sont disponibles.

🗞️ Cette semaine :

💻 « L’illusion des forteresses numériques ou les serveurs passoires de l’enseignement supérieur français »

Une plongée critique dans la cybersécurité des établissements, entre promesses de protection et failles bien réelles.

🎬 « Le cinéma défie la mort par l’IA, vecteur d’innovation ou atteinte aux défunts ? »

Quand l’intelligence artificielle redonne vie à l’écran : progrès technologique ou question éthique sensible ?

🇪🇺 « L’Union européenne interdit les applications de “nudification” : un tournant juridique face aux dérives de l’IA générative »

Une décision forte de Union européenne pour encadrer les usages les plus controversés de l’IA.

⚖️ « Meta en danger : le verdict du Nouveau-Mexique »

Le géant Meta confronté à une décision judiciaire aux potentielles conséquences majeures.

🎤 « De Bruno Mars au Conseil d’État : La riposte française contre l’IA sans licence »

Entre culture populaire et haute juridiction, une réponse française face aux usages non autorisés de l’intelligence artificielle.

📖 Bonne lecture,

✊ Le Collectif !

 

 

L’illusion des forteresses numériques ou les serveurs passoires de l’enseignement supérieur français.

« Bonsoir à tous. À la une de votre journal ce soir : une nouvelle cyberattaque ébranle le Cnous. Les données personnelles de milliers d’étudiants sont une nouvelle fois dans la nature après le piratage massif des serveurs du Centre national des oeuvres universitaires et scolaires … »

Ne trouvez-vous pas que cette annonce vous semble familière ? Récurrente ? Si ce n’est quotidienne ? Aujourd’hui, les fuites de données personnelles ne sont pas singulières, elles occupent une place importante dans le quotidien de millions de français notamment, même si elles touchent le monde entier.

Le 28 janvier 2026, la plateforme « Choisir le service public » a été victime d’une cyberattaque, exposant les données personnelles de 377 418 candidats, données revendues ensuite sur le dark net. Précisément, l’attaque résulté de l’usage frauduleux d’un compte gestionnaire de la plateforme. La fuite inclut des données personnelles « classiques » mais également les projets professionnels des candidats, etc.

Le 15 mars (détectée uniquement le 19 mars suivant, soit 4 jours plus tard) une attaque a également touché l’enseignement catholique, exposant cette fois ci les données de 1.5 millions de personnes, autant d’élèves, de parents, que d’enseignants.

Enfin, mardi 24 mars 2026, le Cnous (Centre national des œuvres universitaires et scolaires) a annoncé avoir été la cible d’un piratage. Les données personnelles de 774 milles étudiants ou anciens étudiants ont été volées. Ces données auraient été extraites à partir de « mesrdv.etudiant.gouv.fr », une plateforme de prise de rendez-vous interne.

Ainsi, l’enseignement semble une cible facile pour un « des attaquants d’un niveau technique limité, mais tirant parti du faible niveau de sécurisation de ces entités », comme mentionne l’ANSSI. Aujourd’hui, le constat est simple, les fuites de données personnelles se multiplient. A l’image du Louvre et de son mot de passe « Louvre », les données personnelles apparaissent trop peu protégées malgré leurs importances cruciales.

Ces incidents à répétition révèlent une fragilité structurelle préoccupante au sein de nos institutions. Au-delà de la simple faille technique, c’est souvent un décalage entre l’importance des données stockées et les moyens alloués à leur protection qui est mis en avant. Dans un contexte où la menace se répand, le maintien de systèmes obsolètes ou de protocoles d’accès trop peu sécurisés constitue une vulnérabilité que l’on ne peut plus ignorer, tant pour la sécurité de l’État que pour la vie privée des citoyens.

Il est désormais impératif d’évoluer vers une « culture » de la cybersécurité plus proactive et rigoureuse. Cela pourrait passer par une refonte profonde des réseaux, mais aussi par une sensibilisation constante et obligatoire des utilisateurs pour éviter que le facteur humain ne demeure le « maillon faible », éliminé par Laurence Boccolini, éliminé dès le premier tour.

La protection des données ne peut plus être une variable budgétaire. Elle doit devenir un pilier central de la confiance numérique, sous peine de voir ces « forteresses » devenir définitivement obsolètes face à l’émergence constante et croissante des black hat.

 

Sources :

Romain TRINQUIER

 

 

 

 

 

L’Union européenne interdit les applications de « nudification » : un tournant juridique face aux dérives de l’IA générative

Le Parlement européen a franchi une nouvelle étape dans l’encadrement des usages de l’intelligence artificielle. Jeudi 26 mars 2026, les députés ont adopté à une majorité écrasante (569 voix pour, 45 contre) une mesure interdisant les systèmes dits de « nudification », capables de générer ou manipuler des images intimes de personnes sans leur consentement. Cette décision s’inscrit dans un contexte de fortes tensions autour des dérives de l’IA générative, récemment illustrées par les polémiques visant Grok.

L’initiative européenne ne surgit pas dans un vide juridique. Elle fait suite à une série de controverses liées à des outils permettant la création de contenus hyperréalistes à caractère pornographique, souvent à partir de simples photographies. L’assistant IA Grok, associé à Elon Musk, a notamment été pointé du doigt pour avoir facilité la production de deepfakes représentant des femmes, voire des mineurs, dans des situations sexuelles explicites. Ces pratiques ont conduit à l’ouverture d’enquêtes au niveau européen, révélant l’urgence d’un encadrement juridique renforcé.

Les systèmes de « nudification », désormais explicitement prohibés, sont définis comme des outils utilisant l’intelligence artificielle pour créer ou altérer des images à caractère sexuel représentant des personnes réelles et identifiables, sans leur accord. En ciblant ces technologies, le législateur européen entend protéger à la fois la dignité humaine, la vie privée et le droit à l’image.

Cette interdiction s’inscrit dans une modification plus large du cadre réglementaire européen sur l’intelligence artificielle, souvent désigné sous le nom d’« AI Act ». Si le texte initial visait déjà à encadrer les systèmes à haut risque, les députés ont introduit plusieurs ajustements notables. D’une part, l’entrée en vigueur de certaines obligations est reportée afin de laisser aux entreprises le temps de se conformer aux nouvelles exigences. Les fournisseurs de systèmes d’IA disposeront ainsi d’un délai courant jusqu’au 2 novembre 2026 pour mettre en place des dispositifs de marquage numérique des contenus générés (audio, images, vidéos ou textes). Ce mécanisme de « watermarking » vise à garantir la traçabilité des contenus artificiels et à lutter contre la désinformation. D’autre part, le législateur a introduit une certaine flexibilité économique. Les mesures de soutien, initialement réservées aux petites et moyennes entreprises (PME), seront étendues aux entreprises en phase de croissance, dites « mid-caps ».

Sur le plan juridique, cette réforme illustre la recherche d’un équilibre délicat entre, d’une part, le développement de l’innovation technologique et, d’autre part, la protection des droits fondamentaux. L’interdiction des applications de nudification marque une reconnaissance explicite du risque que représentent certaines formes d’IA pour la vie privée et l’intégrité des individus. Le texte consacre également une évolution du droit vers une approche plus préventive. Plutôt que de sanctionner a posteriori les abus, le législateur choisit ici d’interdire en amont certaines catégories d’usages jugés intrinsèquement dangereux.

Avec cette décision, l’Union européenne confirme son ambition de devenir un acteur normatif majeur en matière de régulation du numérique. Après le RGPD pour la protection des données personnelles, l’encadrement de l’intelligence artificielle pourrait constituer un nouveau standard international. Reste à savoir si ces mesures seront suffisantes face à la rapidité d’évolution des systèmes d’IA générative. Si l’interdiction des systèmes de nudification constitue une avancée significative, elle pose également la question de l’effectivité du contrôle et de la responsabilité des acteurs technologiques, souvent situés en dehors du territoire européen.

Sources:

Sara CHARLANNES

 

 

 

 

Le cinéma défie la mort par l’IA, vecteur d’innovation ou atteinte aux défunts ?

Les résurrections numériques d’acteurs décédés ne sont pas nouvelles au cinéma, et Val Kilmer en est l’exemple le plus récent et le plus abouti. Dès 2022, l’IA avait déjà redonné vie à sa voix altérée par le cancer de la gorge dans Top Gun: Maverick, grâce à la startup Sonantic qui a recréé son timbre iconique à partir d’archives audio, avec son consentement de son vivant

Le cas de As Deep as the Grave, en 2026, va plus loin. Ce film prévoit d’utiliser une version entièrement recréée par IA de l’acteur pour sa prestation posthume, avec l’accord explicite de sa famille. Là où Top Gun prolongeait une performance existante, ce nouveau projet défie la mort en inventant une interprétation inédite. Mais cette distinction pose une question centrale. Sur quel fondement juridique ces décisions reposent-elles, et quelle protection offrent réellement les systèmes américain et français ?

Aux États-Unis, l’utilisation post-mortem de l’image d’un acteur décédé relève du right of publicity, un droit de propriété commerciale sur l’identité, visage, voix, nom. Contrairement aux droits moraux français, ce droit est avant tout patrimonial et temporel. Il survit à la mort dans des États comme la Californie jusqu’à 70 ans ou New York 40 ans, et les ayants droit, estate, héritiers contrôlent les licences d’exploitation.

Concrètement, pour As Deep as the Grave, les ayants droit de Val Kilmer ont donné leur accord pour l’exploitation IA de son image et de sa prestation, non pas pour préserver un prétendu droit moral à l’intégrité artistique de l’acteur, mais pour autoriser l’usage commercial de son identité, visage, voix, style. Le consentement des ayants droit suffit généralement à légitimer cette exploitation IA, sans examen approfondi de la question. L’IA dénature-t-elle l’intention artistique originelle de Kilmer ? Y a-t-il atteinte à la dignité du défunt ? Ces interrogations n’ont pas de place dans la logique américaine. L’approche est binaire et contractuelle, autorisation du oui/non, fondée sur l’intérêt financier des héritiers.

En droit français, la situation diffère radicalement. L’article L.212-1 du Code de la propriété intellectuelle reconnaît à l’artiste-interprète un droit au respect de son interprétation, de son nom et de sa qualité, ainsi qu’un contrôle sur la fixation, la reproduction et la communication de sa prestation. Surtout, ce droit comporte un volet moral perpétuel et inaliénable, transmis aux ayants droit, qui doivent veiller à l’intégrité de la prestation et à la mémoire de l’artiste.

Le cas est sensible lorsqu’une IA recrée la voix, le visage ou le jeu d’un acteur décédé. Réutiliser numériquement sa performance revient à capter une part de son interprétation, avec un risque de dénaturation de l’œuvre ou de l’intention artistique. Les ayants droit français ne sont pas simplement des licensers commerciaux. Ils doivent déterminer si l’usage porte atteinte à l’intégrité de l’interprétation ou à la mémoire de l’artiste. Cette évaluation est subjective, casuistique, fonctionnelle. Juges et héritiers examinent au cas par cas si la réplique IA respecte la prestation originelle.

Le phénomène des résurrections IA expose une divergence profonde entre deux conceptions du droit d’auteur et voisin. En France, la protection de l’artiste-interprète prétend honorer l’esprit de sa prestation, sa dignité, sa mémoire. Aux États-Unis, il s’agit purement de valeur commerciale transférable.

Or, force est de constater que le profit économique tend à éroder l’une comme l’autre. Carrie Fisher n’a jamais consenti à sa résurrection numérique pour Rogue One. Val Kilmer bénéficie du choix de sa famille, certes, mais ce choix reflète souvent l’intérêt financier des héritiers, non le respect artistique du défunt. De part et d’autre de l’Atlantique, la volonté de prolonger un univers cinématographique lucratif prime sur la question éthique fondamentale. Un acteur mort a-t-il une dignité artistique qui ne peut être réduite à sa valeur boursière ?

L’arrivée de l’IA générative marque une ère inquiétante où le masque d’hommage posthume présenté comme techniquement innovant et légalement encadré dissimule une réalité moins noble. C’est la captation intégrale de la prestation d’un artiste au profit d’une industrie qui sacrifie son essence pour des revenus supplémentaires. Le consentement des ayants droit, qu’il soit fondé sur le droit moral français ou le right of publicity américain, devient complice d’une commodification du défunt. C’est regrettable, mais révélateur.

Sources

Guilaine LIKILLIMBA

 

 

 

 

De Bruno Mars au Conseil d’État : La riposte française contre l’IA sans licence

 


La soci
été de gestion de droits musicaux BMG vient d’intenter un procès retentissant contre Anthropic, l’entreprise derrière le puissant chatbot Claude. Claude a été entraîné, sans aucune autorisation, en utilisant les paroles de stars mondiales comme Justin Bieber, Ariana Grande, les Rolling Stones ou encore Bruno Mars.

Dans sa plainte, BMG explique que la preuve de cette aspiration ou de ce web scraping est évidente, lorsqu’on le sollicite, le robot Claude est capable de recracher aux utilisateurs des portions significatives de tubes comme Uptown Funk. Pourtant, pour prouver sa bonne foi et obtenir réparation, BMG est obligée de réclamer au tribunal américain une ordonnance forçant Anthropic à dévoiler le contenu de ses données d’entraînement. C’est l’illustration parfaite de la preuve impossible, également appelé probatio diabolica, à laquelle font face les créateurs dont les œuvres sont exploitées en secret.

Mais en France, ce parcours du combattant n’existera bientôt plus. Le 19 mars 2026, le Conseil d’État a rendu un avis historique validant la proposition de loi (n° 220) du Sénat, qui apporte la solution juridique idéale à ce problème, le renversement de la charge de la preuve.

Concrètement, le texte instaure une présomption d’utilisation. Si une IA génère un résultat qui ressemble de façon flagrante à une œuvre protégée, ce résultat généré par le système constitue un indice rendant son utilisation vraisemblable. Dès lors, la charge de la preuve s’inverse, ce sera au fournisseur du modèle ou du système d’IA de prouver au juge civil qu’il n’a pas utilisé l’œuvre. S’il l’a utilisée, il devra démontrer qu’il a respecté l’exception européenne de fouille de textes et de données (TDM), en prouvant un accès licite et en vérifiant que l’artiste n’avait pas exercé son droit d’opposition.

L’avis du Conseil d’État blinde totalement cette riposte face aux géants de la tech. Il confirme que la loi est pleinement conforme à l’article 39 de la Constitution et au droit de l’Union européenne. En s’appuyant sur la doctrine juridique et notamment l’analyse de la professeure Alexandra Bensamoun, on comprend que ce mécanisme procédural garantit l’effectivité du droit au recours des créateurs. La solution juridique validée par la haute juridiction est que la loi vise une présomption de fait et non une présomption directe de contrefaçon, laissant ainsi toujours au juge le soin de trancher le litige.

Ce bouclier protecteur s’appliquera de manière immédiate aux procès en cours. Mieux encore, il frappera toute IA commercialisée ou utilisée en France, me si elle a été entraînéesecrètement à l’étranger. Cette transparence forcée s’aligne parfaitement avec lIA Act qui impose de documenter les données d’entraînement, ainsi qu’avec la résolution du Parlement européen du 10 mars 2026 réclamant des mesures équivalentes en cas de non-respect des obligations de transparence.

Dix-neuf organisations des secteurs culturels et de l’information, de la SACEM au Syndicat national de l’édition, en passant par la SACD, l’ADAMI ou l’Alliance de la presse, ont salué l’avis du Conseil d’État dans un communiqué commun, y voyant la favorisation de l’émergence d’un véritable marché de licences, rejetant au passage la piste d’un système de taxe compensatoire globale jugé dommageable et illusoire.

La proposition de loi sera examinée par la commission de la culture le 1er avril, puis débattue en séance publique au Sénat le 8 avril 2026.

Sources :

  • Dillon (N.), « BMG poursuit Anthropic pour violation de droits d’auteur sur les paroles de Bieber, Bruno Mars et les Stones », Rolling Stone, 23 mars 2026.
  • Conseil d’État (Ass. gén.), « Avis n° 410652 sur une proposition de loi relative à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle », 19 mars 2026.
  • Darcos (L.), Evren (A.), Ouzoulias (P.) et al., « Proposition de loi relative à l’instauration d’une présomption d’exploitation des contenus culturels par les fournisseurs d’intelligence artificielle », Sénat, Dossier Législatif PPL n° 220, 12 déc. 2025.
  • Bensamoun (A.), « Intelligence artificielle – La présomption d’utilisation des contenus culturels par les fournisseurs d’IA : le Conseil d’État tranche », JCP G 2026, act. 391, 30 mars 2026.
  • Parlement européen, « Résolution sur le droit d’auteur et l’intelligence artificielle générative – opportunités et défis », 10 mars 2026.
  • Syndicat National de l’Édition (SNE), « Preuve d’utilisation des contenus culturels et informationnels par les IA : les secteurs créatifs saluent lavis du Conseil dEtat qui confirme la robustesse de la proposition de loi du Sénat », Communiqué de presse, 24 mars 2026.

 

Ansar LEMMOUCHI

 

 

 

Meta en danger : le verdict du Nouveau-Mexique

Le 24 mars 2026, un jury civil réuni à Santa Fe a condamné Meta Platforms à verser 375 millions de dollars à l’État du Nouveau-Mexique pour avoir mis en danger des utilisateurs mineurs sur Facebook et Instagram. Rendu à l’issue de six semaines de débats, ce verdict, qualifié d’historique par le procureur général Raul Torrez, constitue la première condamnation judiciaire d’un géant technologique pour la nocivité structurelle de ses plateformes à l’égard des mineurs. Au-delà de son montant, cette décision appelle une lecture transversale : elle interroge simultanément les fondements de la responsabilité des hébergeurs, les instruments du droit de la protection des données et, plus largement, la capacité du droit à appréhender les externalités négatives de la conception algorithmique.

Depuis 1996, la Section 230 du Communications DecencyAct constitue le socle de l’immunité des plateformes numériques américaines : elles ne sauraient être tenues responsables des contenus publiés par leurs utilisateurs. Cette disposition, initialement conçue pour encourager l’essor d’un internet naissant, a longtemps rendu quasi inattaquables des entreprises comme Meta.

Le procureur du Nouveau-Mexique a opté pour une stratégie radicalement différente, en ciblant non pas les contenus illicites hébergés, mais la conception même des plateformes.En créant de faux profils d’enfants pour démontrer la facilité d’accès des prédateurs sexuels, et en produisant des courriels internes attestant que les dirigeants de Meta avaient connaissance des risques de sextortion et de grooming, l’accusation a déplacé le terrain du débat : ce n’est plus l’hébergeur qui est jugé, mais le concepteur d’un système qui a délibérément sacrifié la sécurité des mineurs à l’optimisation de l’engagement. Le jury a suivi ce raisonnement en condamnant Meta sur l’ensemble des chefs d’accusation, validant ce que des juristes qualifient de « contournement » de la Section 230.

Si le verdict américain frappe par son retentissement, l’Union européenne n’a pas attendu les juridictions du Nouveau-Mexique pour construire un cadre normatif de protection des mineurs en ligne. Le Digital Services Act(DSA), entré en vigueur pour les très grandes plateformes dès août 2023, impose à Meta des obligations substantielles : évaluation spécifique des risques pour les mineurs, interdiction des interfaces trompeuses (dark patterns), limitation de la publicité ciblée et encadrement des systèmes de recommandation algorithmique. La Commission européenne, en juillet 2025, a précisé ces exigences par des lignes directrices recommandant notamment des paramètres de confidentialité activés par défaut et des mécanismes de vérification d’âge articulés autour du futur portefeuille d’identité numérique européen.

En France, ce mouvement se prolonge par la loi SREN du 21 mai 2024 et par la proposition de loi adoptée en première lecture à l’Assemblée nationale le 26 janvier 2026, qui vise à interdire l’accès aux réseaux sociaux aux moins de 15 ans, avec une entrée en vigueur envisagée au 1er septembre 2026.L’articulation entre ces instruments nationaux et le DSA constitue un enjeu de cohérence normative : le droit de l’Union prime, mais les États membres conservent une marge pour des exigences plus protectrices à la condition de ne pas entraver la libre prestation des services numériques.

La portée du verdict dépasse la seule question de la protection de l’enfance. En imputant à Meta une faute fondée sur la conception de ses algorithmes de recommandation plutôt que sur les contenus qu’ils diffusent, les jurés de Santa Fe ont ouvert une brèche dans laquelle s’engouffrent plus de deux mille procès en attente aux États-Unis. La procureure Linda Singer l’a formulé sans ambiguïté : Meta « voyait ce qui arrivait aux enfants » et a documenté ces préjudices en interne, tout en maintenant des pratiques profitables.

Ce précédent interroge l’ensemble de l’économie de l’attention numérique. Si la responsabilité d’une plateforme peut désormais être engagée du fait de la logique intrinsèque de son système de recommandation, la question se posera inévitablement pour d’autres acteurs : assistants conversationnels, systèmes de recommandation e-commerce, plateformes éducatives. En droit de la propriété intellectuelle et du numérique, cela soulève une question fondamentale : le droit d’auteur sur un algorithme peut-il coexister avec une obligation de résultat quant aux effets de son déploiement ? La conception d’un système technique protégeable engendre-t-elle corrélativement une responsabilité pour ses externalités comportementales ?

Ainsi, le verdict du 24 mars 2026 marque une rupture dans la relation entre le droit et les plateformes numériques. En validant une théorie de la responsabilité fondée sur la conception défectueuse, la justice américaine rejoint, par une voie contentieuse, les ambitions régulatoires du législateur européen. La convergence transatlantique qui s’esquisse, entre jurisprudence américaine et normativité du DSA, dessine les contours d’un droit commun de la responsabilité des plateformes, où la protection des utilisateurs vulnérables ne saurait plus être sacrifiée à l’optimisation des modèles économiques. Meta a annoncé faire appel ; mais quel que soit le sort de cette décision, le précédent est posé.

 

Léana BLAND

 

MasterIPIT