Brèves du 29 mai au 4 juin 2023

Bonsoir à tous,

Les brèves du 29 mai au 4 juin 2023 sont disponibles.

En vous souhaitant une bonne lecture ainsi qu’une bonne semaine,

Le Collectif

 

La loi encadrant les pratiques des influenceurs définitivement adoptée par le Parlement

De nombreux influenceurs ayant déjà commis des abus sur les réseaux sociaux, en faisant notamment la promotion de produits dangereux pour la santé, l’importance de réglementer cette nouvelle activité est de taille. Et c’est chose faite : après le vote en Assemblée, une unanimité de 342 sénateurs a marqué l’adoption du nouveau texte. 

Mais comment définit-on cette profession novatrice ? le texte considère que les influenceurs sont des personnes qui, contre rémunération ou avantages en nature, « mobilisent leur notoriété auprès de leur audience pour communiquer » en ligne « des contenus visant à faire la promotion, directement ou indirectement, de biens, de services ou d’une cause quelconque ».

En France, ces derniers seraient au nombre de 150 000, dont certains avec une audience modeste mais d’autres comptant plusieurs millions d’abonnés. 

 

Que prévoit le texte ? 

L’objectif de cette nouvelle loi est clair : lutter contre les dérives et arnaques de ces personnes. Ainsi, plusieurs choses ont été réglementées notamment sur le domaine lié à la santé : toute promotion de la chirurgie esthétique ou de l’abstention thérapeutique est interdite, au même titre que la promotion de la nicotine. De même, la promotion de dispositifs médicaux est interdite ou bien sévèrement encadrée. 

Concernant les paris sportifs, les influenceurs ne pourront plus promouvoir les abonnements à des pronostics sportifs. La promotion de certains produits ou services financiers tels que la crypto-monnaie est également dorénavant interdite. 

Concernant la modification de photos publiées, avec l’utilisation par exemple de filtres, les influenceurs devront faire mention sur leurs publications « images retouchées » ou « images virtuelles ». 

En cas de manquement à ces obligations, les peines prévues iront jusqu’à deux ans de prison et 300 000 euros d’amende. Sur ce point, la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) verra ses pouvoirs renforcés en matière d’astreintes et de mises en demeure prononcées à l’encontre des influenceurs.

Les activités des agents d’influenceurs sont également encadrées ; ces derniers devront notamment conclure des contrats écrits, lorsqu’un certain seuil de rémunération a été atteint, qui comprendront alors certaines clauses obligatoires (missions, conditions de rémunération…).

En bref, toutes ces nouvelles réglementations vont permettre de mieux protéger les consommateurs. 

 Louise FOUQUET-CRISTOFINI

 

Sources :

https://www.vie-publique.fr/loi/288793-regulation-des-influenceurs-proposition-de-loi-delaporte-vojetta

https://www.lemonde.fr/pixels/article/2023/06/01/influenceurs-la-premiere-loi-encadrant-le-secteur-definitivement-adoptee-par-le-parlement_6175749_4408996.html

 

 

Union européenne et Etats-Unis : Vers un code de conduite sur l’intelligence artificielle

A l’occasion de la quatrième réunion ministérielle du Conseil du commerce et des technologies (CCT), l’Union européenne et les Etat- Unis ont annoncé un projet commun de « code de conduite » sur l’intelligence artificielle.

Le CCT UE-Etats-Unis est un forum lancé en 2021 qui permet à l’Union européenne et aux États-Unis de coordonner leurs approches concernant les questions essentielles en matière de commerce et de technologie, sur la base de valeurs démocratiques communes. Ainsi, l’objectif est celui d’une collaboration transatlantique sur des questions telles que les technologies émergentes, le commerce durable ou encore les droits de l’homme dans l’environnement numérique.

Cette année, l’intelligence artificielle fût au cœur des débats. Pour les participants il est clair que cette technologie présente autant de bénéfices potentiels que de risques et qu’elle doit donc faire l’objet d’une attention toute particulière, et ce notamment au regard du développement exponentiel des systèmes d’IA générative.

L’un des points discutés fût alors l’établissement d’un code de conduite volontaire ayant pour objectif de favoriser le développement de l’IA tout en atténuant ses risques, prenant en compte l’avis d’experts indépendants comme de membres de l’industrie. Les participants considèrent qu’il est urgent d’avancer dans l’écriture du premier jet de ce texte en raison du lapse de temps qui sera ensuite nécessaire à sa mise en application, d’environ trois ans du fait des procédures législatives des participants. De ce fait, il devrait être prochainement possible d’avoir une idée des solutions proposées pour la réalisation des objectifs du CCT. 

Ce code, qui devrait être d’application volontaire pour les entreprises du secteur, pourra être adopté par tous les pays partageant les mêmes idées que les Etats-Unis et l’Union européenne sur la question, en particulier le Canada, le Royaume Uni, le Japon ou encore l’Inde. Si la Chine ne fait pas partie des potentiels partenaires cités en la matière, c’est que ce texte a aussi pour objectif de ne pas lui laisser le la en matière de réglementation de l’IA. Les occidentaux souhaitent en effet définir les standards imposés à cette technologie afin qu’elle se développe en respectant les droits fondamentaux, ce qui semble souhaitable au regard des nombreuses voix qui s’élèvent pour alerter sur les dangers de l’IA.

Esther PELOSSE

 

Sources :

https://www.state.gov/secretary-antony-j-blinken-and-u-s-eu-trade-and-technology-council-ministerial-co-chairs-at-a-joint-press-availability/

https://france.representation.ec.europa.eu/informations/le-conseil-du-commerce-et-des-technologies-ue-etats-unis-renforce-la-cooperation-dans-plusieurs-2023-05-31_fr

https://www.whitehouse.gov/briefing-room/statements-releases/2023/05/31/u-s-eu-joint-statement-of-the-trade-and-technology-council-2/

https://ici.radio-canada.ca/nouvelle/1983730/encadrement-ia-union-europeenne-etats-unis

https://www.lefigaro.fr/conjoncture/intelligence-artificielle-l-europe-et-les-etats-unis-veulent-un-code-de-conduite-20230531

Intelligence artificielle et discriminations, entre solutions et risques

Les nouvelles technologies sont-elles le reflet de notre société ? Selon Karine Gentelet, « on ne peut pas séparer la technologie de l’Humain. La technologie est quelque chose créé par des humains, pas dans un vacuum social. »

Ainsi, la lutte contre les discriminations ne déroge pas à cette analogie en matière d’intelligence artificielle.

Selon le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». On peut également enrichir cette définition en y ajoutant les comportements dépassant les capacités humaines, puisque les ordinateurs actuels parviennent aujourd’hui à les surpasser dans certaines tâches (bien que la compétence de l’ordinateur s’arrête généralement à l’exécution de cette tâche).

En droit, une discrimination est un traitement défavorable qui doit généralement remplir deux conditions cumulatives : être fondé sur un critère défini par la loi (sexe, âge, handicap…) et relever d’une situation visée par la loi (accès à un emploi, un service, un logement…).

À ce jour, la loi reconnait plus de 25 critères de discrimination. Ainsi, défavoriser une personne en raison de ses origines, son sexe, son âge, son handicap, ses opinions… est interdit à la fois en droit interne et par plusieurs conventions internationales auxquelles adhère la France.

La non-discrimination est certes garantie par la loi mais pas nécessairement sa lutte. La lutte contre les discriminations nécessite parfois la mise en place de règles dérogeant au principe d’égalité mais qui se rapprochent davantage de l’équité. Néanmoins ces exceptions légalement admises permettent la mise en place d’une égalité effective, position qui ne fait malheureusement pas l’unanimité…

On a longtemps pensé que les systèmes utilisant l’intelligence artificielle étaient plutôt objectifs, plus généralement comme toutes les technologies. Or la technologie n’est pas neutre, tout comme l’intelligence artificielle. De tels systèmes peuvent avoir les mêmes biais que ceux qui les ont imaginés, de facto subjectifs.

L’existence de discrimination est d’autant plus complexe en matière d’intelligence artificielle en ce que son fonctionnement reste très opaque pour un grand nombre de ses utilisateurs. L’alphabétisation au numérique, qui tend à s’élargir et doit permettre à chaque utilisateur de comprendre les ressorts de la machine, reste relativement limitée.

Qu’il s’agisse d’un outil dans la lutte contre les discriminations (I) ou d’un risque (II), l’intelligence artificielle nécessite d’être réglementée au regard des normes applicables aujourd’hui (III).

 

I. L’intelligence artificielle, un instrument potentiel pour éviter les discriminations

Une intelligence artificielle éthique nécessite des algorithmes éthiques. Autrement dit, la base de la décision ne doit pas être fondée sur une discrimination.

Comme le préconise la CNIL, dans ses recommandations fonctionnelles eu égard à l’intelligence artificielle, tous les acteurs-maillons de la “chaîne algorithmique” doivent être sensibilisés à cet enjeu.  De ce fait, favoriser la mixité et la diversité parmi les développeurs est une solution présentée.

En effet, si les biais des algorithmes sont en partie liés aux biais cognitifs de ceux qui les programment, on comprend l’importance que revêt la diversité parmi les développeurs. Or, le secteur de l’informatique et des nouvelles technologies est largement dominé par les hommes. Le rapport Villani rappelle que « les femmes représentent […] à peine 33 % des personnes du secteur numérique (12 % seulement, si l’on écarte les fonctions transversales et supports) ». De nombreuses études montrent que les minorités ethniques sont également sous-représentées. Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs ou encore travailler le design des systèmes algorithmiques au service de la liberté humaine, pour contrer l’effet « boîtes noires », permettra également de lutter plus efficacement contre les inégalités.

Les intelligences artificielles sont créées par l’homme. Donc, si nous leur transmettons nos biais, nous pouvons également leur apprendre à les éviter. Nous pouvons « désencoder » les discriminations et développer pour inclure, notamment sur le choix de l’algorithme ou des variables prédictives à prendre en compte.

Des chercheurs du MIT ont ainsi pu présenter Diversity in Faces Dataset, un jeu de données regroupant un million de visages humains étiquetés, censé être représentatif de la société et visant à améliorer les technologies de reconnaissance faciale.

Enfin, l’intelligence artificielle peut avoir pour objectif au-delà de l’utilisation de données non biaisées au fondement de son fonctionnement, la lutte contre les discriminations.

Par exemple, les applications Seeing AI de Microsoft ou Lookout de Google aident les personnes aveugles ou malvoyantes à identifier des éléments (individus, objets, textes, etc.) présents dans leur environnement grâce à la reconnaissance automatique d’images.

Malgré tout, l’intelligence artificielle peut représenter un risque dans la lutte contre les discriminations notamment au regard des « biais de l’IA », qui désigne une situation dans laquelle un système de Machine Learning discrimine un groupe de personnes en particulier, reflétant les discriminations de notre société.

II. Des risques dans la lutte contre les discriminations

L’intelligence artificielle, même si elle appartient au domaine technologique et même scientifique, connaît néanmoins des limites et une certaine marge d’erreurs non négligeable.

Un rapport de l’Agence des droits fondamentaux de l’UE (FRA) rappelle que si l’utilisation de systèmes algorithmiques peut avoir des conséquences positives, ils peuvent aussi violer certains droits fondamentaux ou conduire à des prises de décisions discriminatoires.

Par exemple, en 2020, au Pays-Bas, il est apparu que les autorités fiscales néerlandaises avaient utilisé des algorithmes qui avaient par erreur étiqueté quelque 26 000 parents comme ayant commis une fraude dans leurs demandes d’allocations familiales. Or la majorité de ces parents étaient issus de l’immigration.

En France, la CNIL nous informe d’ailleurs sur certaines de ces défaillances, notamment liées à la conception du système.

Plusieurs dangers ont ainsi pu être mis en exergue, ils seront illustrés notamment au travers de l’exemple des applications de rencontre en ligne dont la plus connue est “Tinder”.

  • L’algorithme repose sur des hypothèses et certaines peuvent s’avérer trop approximatives.

Sur ce point, on peut par exemple se référer à l’ouvrage de Judith Duportail, qui a publié L’amour sous algorithme en 2019. Elle nous révèle ainsi que chaque utilisateur se voit attribuer une note de désirabilité basée entre autres sur le taux de personnes qui, voyant le profil, veulent entrer en contact avec l’individu qui se cache derrière.

Ainsi, “Tinder se réserve la possibilité de nous évaluer sur notre attractivité, mais pas seulement : sur notre intelligence, en lisant nos messages, et en regardant si on utilise des mots compliqués, sur  notre niveau d’étude et notre niveau de revenu.”                          L’égalité entre les utilisateurs est totalement inexistante sur cette application et c’est d’ailleurs sur cette différence de traitement structurelle que repose le modèle économique de la plateforme.

En effet, Tinder est aujourd’hui l’application la plus rentable de l’Apple Store, grâce aux packs qu’elle propose à ses utilisateurs pour « booster » leur profil.

  • De mauvais critères peuvent également être retenus lors de l’entraînement de l’algorithme, celui-ci est évalué sur la réalisation d’une tâche selon certains critères, ou métriques. De facto, les critères et le seuil final choisis auront des conséquences importantes sur la qualité du système final.

 

  • Enfin, l’une des défaillances majeures en matière d’intelligence artificielle réside dans le manque de représentativité.
    Cette anomalie se produit au moment de la procédure d’échantillonnage qui peut également être biaisée. In fine, certains cas réels n’ont pas été pris en compte dans les données d’entraînement. Or, les données d’entraînement biaisées peuvent conduire à des systèmes d’IA biaisés.

L’Agence des droits fondamentaux de l’Union européenne (FRA) propose ainsi de tester les algorithmes pour biais avant application pour éviter la discrimination. Cette proposition s’inscrit dans un projet plus large en la matière ayant pour objectif de réglementer l’intelligence artificielle.

 

III. Des perspectives de régulation de l’intelligence artificielle

Des perspectives de régulation de l’intelligence artificielle ont été tracées par le Conseil de l’Europe comme par la Commission européenne, portées par des études ayant pu souligner les risques que les systèmes dits d’intelligence artificielle (IA) et de prise de décision automatisée font peser sur les principes d’égalité et de non-discrimination en matière d’emploi, de fourniture de biens ou services publics ou privés, de politiques publiques de sécurité ou encore par exemple de lutte contre la fraude.

Ainsi, l’Artificial Intelligence Act (IA Act), le projet de règlement de la Commission européenne sur l’IA, proposé pour la première fois en avril 2021 a pour ambition d’apporter un cadre juridique uniforme à l’usage et à la commercialisation des intelligences artificielles. Pour protéger les usagers, les IA seront  catégorisées au regard de la gravité des risques qu’elles posent.

Ce projet de réglementation n’aborde toutefois pas directement les risques que pourrait créer l’intelligence artificielle en matière de lutte contre les discriminations, si bien que l’ autorité administrative indépendante appelle à replacer le principe de non-discrimination au cœur du projet de règlement de la commission européenne.

En effet, le 25 juin, a été publié un avis intitulé « Pour une IA européenne protectrice et garante du principe de non-discrimination » réalisé conjointement avec Equinet, le réseau européen des organismes de promotion de l’égalité, dont il est membre.

Parmi les garanties qui doivent être apportées par le Règlement, l’avis a pu établir sept recommandations parmi lesquelles le premier objectif est de faire du principe de non-discrimination une préoccupation centrale dans toute réglementation européenne dédiée à l’IA. Le second consisterait à établir dans tous les pays européens des mécanismes de plainte et de recours accessibles et efficaces pour les personnes concernées en cas de violation des principes d’égalité et de non-discrimination ou d’autres droits fondamentaux lorsqu’une telle violation résulte de l’utilisation de systèmes d’IA.

Au même titre que d’autres nouvelles technologies, l’intelligence artificielle est un nouveau support mais le droit doit s’appliquer conformément à l’ensemble des  normes établies, ce qui se réfère à l’équivalence fonctionnelle.

Il est dès lors primordial, pour construire une égalité réellement effective, de respecter les droits fondamentaux tel que le principe de non-discrimination institué par la Charte des droits fondamentaux de l’Union européenne en son article 21.

 

Fiona ROZNER

 

Sources : 

Défenseur des droits, lutte contre les discriminations et promotion de l’égalité

Article sur le site internet de la CNIL : « Intelligence artificielle, de quoi parle-t-on ? », 5 avril 2022

Comment l’IA peut aider à réduire les inégalités, hello future

Article sur le site internet de la CNIL Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, 15 décembre 2017

« A la recherche de l’algorithme de Tinder : l’envers du décor de l’application de rencontre la plus populaire au monde », France Culture (Radio), dimanche 24 mars 2019

Le rapport de l’Agence des droits fondamentaux de l’UE sur les biais algorithmiques, observatoire IA

The Artificial Intelligence Act

Charte des droits fondamentaux de l’Union européenne (article 21)

Brèves du 22 au 28 mai 2023

Bonsoir à tous,

Les brèves du 22 au 28 mai 2023 sont disponibles.

En vous souhaitant une bonne lecture ainsi qu’une bonne semaine,

Le Collectif

 

1,2 milliard d’euros : une amende record prononcée à l’égard de Meta pour violation du RGPD

Rebelote pour Meta !

Le 22 mai 2023, la Data Protection Commission (DPC) a condamné Meta pour avoir continué le transfert de données personnelles vers les Etats-Unis, en violation des règles européennes.

Verdict : une amende record de 1,2 milliard d’euros. La dernière plus haute amende avait été prononcée à l’encontre d’Amazon : 746 millions d’euros. Outre ce cas, les amendes n’excèdent jamais plus de 50 millions d’euros.

Il faut noter que même si l’amende a été prononcée par la DPC, elle n’a été que le porte-parole de l’European Data Protection Board (EDPB) qui rassemble les régulateurs européens, alors même que la DPC désapprouvait cette décision.

Certes, le Privacy Shield a été invalidé pour son niveau de protection insuffisant dans l’arrêt Schrems II de la Cour de justice de l’Union européenne du 16 juillet 2020. Les clauses contractuelles types avaient toutefois été validées par la CJUE. Cependant, l’EDPB a estimé que ces clauses ne garantissaient pas d’une protection satisfaisante. Ces violations « sont très graves puisqu’il s’agit de transferts systématiques, répétitifs et continus » affirme Andrea Jelinek, présidente de l’EDPB.

Il faut dire que Meta est le dernier de la classe en la matière… En 2022, il a dû s’acquitter de 80% du montant total des amendes prononcées pour violations au RGPD en Europe.

En outre, la DPC a enjoint Meta pour cesser ces transferts transatlantiques dans un délai de 5 mois et pour supprimer les données déjà transférées dans un délai de 6 mois.

Meta a annoncé interjeté appel, espérant d’ici-là un nouvel accord juridique plus souple pour encadrer le transfert de données à caractère personnel entre l’Union européenne et les Etats-Unis. L’effet dissuasif des amendes prononcées dans le cadre du RGPD par les autorités de régulation semble bel et bien inopérant pour Meta…

Sur la Croisette, ce week-end, Meta aurait pu recevoir la palme d’or du non-respect du RGPD.

Ninon VANDEKERCKHOVE

 

Sources :

https://www.francetvinfo.fr/internet/reseaux-sociaux/union-europeenne-meta-la-maison-mere-de-facebook-ecope-d-une-amende-record-de-1-2-milliard-d-euros-pour-avoir-envoye-les-donnees-d-utilisateurs-aux-etats-unis_5840483.html

https://www.lefigaro.fr/secteur/high-tech/donnees-meta-ecope-d-une-amende-record-d-1-2-milliard-d-euros-en-europe-20230522

https://www.lemonde.fr/pixels/article/2023/05/22/meta-condamne-a-une-amende-record-de-1-2-milliard-d-euros-par-le-regulateur-irlandais-des-donnees-personnelles_6174333_4408996.html

 

Microsoft demande au gouvernement américain de réglementer l’IA

L’intelligence artificielle (IA) est un outil de plus en plus convoité par les entreprises. Lors d’un discours aux Etats-Unis, le président de Microsoft, Brad Smith, a demandé à ce que l’IA soit davantage réglementée. En effet, selon lui, le gouvernement doit agir “plus rapidement”.

Depuis quelques mois, les entreprises sont entrées en compétition dans le domaine de l’IA, et cela au détriment de la sécurité. C’est pourquoi les législateurs ont publiquement fait part de leurs préoccupations concernant cette technologie, en particulier en ce qui concerne la propagation de la désinformation, l’impact sur l’emploi et les risques de cybercriminalité.

Jeudi 26 mai lors d’une audience avec des législateurs, Brad Smith a donc décidé d’exposer en détail les mesures qu’il estime nécessaires pour prévenir les abus potentiels de l’IA. Il a appelé le gouvernement américain à les adopter rapidement. Par exemple, il a préconisé la mise en place d’obligations à respecter pour les entreprises “fournissant des applications basées sur des systèmes d’IA puissants.

Le président de Microsoft a également défendu l’idée de créer une nouvelle agence qui aurait pour objectif de délivrer des licences pour les principaux systèmes d’IA. Il ajoute que c’est ainsi que nous nous assurerons que l’humanité reste aux commandes de la technologie. Il soutient aussi le fait que les entreprises doivent assumer la responsabilité juridique des dommages liés à l’utilisation de l’IA.

Si le gouvernement américain décide de ne pas intervenir sur l’IA, le président de Microsoft a révélé que l’entreprise avait engagé des discussions avec d’autres acteurs de l’industrie afin d’établir un ensemble de normes pour les systèmes d’IA : “Il existe une opportunité pour l’industrie de partager les meilleurs pratiques, les principes communs et même d’adopter un ensemble de normes”.

Aujourd’hui, pour l’instant, l’Union européenne est en avance sur les Etats-Unis sur ce sujet. En effet, certaines de ces mesures sont déjà incluses dans l’IA Act européen.

Lili POURHASHEMI

 

Sources : 

https://siecledigital.fr/2023/05/26/a-son-tour-microsoft-appelle-le-gouvernement-americain-a-encadrer-lia/

https://www.usine-digitale.fr/article/pour-reglementer-l-ia-microsoft-propose-de-creer-des-licences-delivrees-par-les-gouvernements.N2135927

https://www.tomsguide.fr/chatgpt-microsoft-reclame-la-creation-dune-autorite-de-regulation-de-lintelligence-artificielle/

L’affaire Metabirkin, M. Rothschild contre Hermès

©️ Mason Rothschild

 

     La numérisation et la compression des données ont des conséquences importantes sur le droit de la propriété intellectuelle. De plus en plus d’objets protégés par ce droit sont reproduits sous forme numérique. L’opportunité du « on line » est en effet intéressante pour les utilisateurs d’Internet car, dans le monde numérique participatif, ceux-ci peuvent télécharger, copier, ou reproduire des œuvres sans perdre en qualité et de façon plus accessible. Critiquée de toutes parts, la propriété intellectuelle est devenue, pour les internautes, le symbole d’une forme d’archaïsme à l’heure de la société de l’information. Pour autant, la propriété intellectuelle continue de s’appliquer dans le monde numérique. Il est en effet indispensable de renforcer sa protection, afin qu’elle soit pour le moins équivalente à celle accordée aux œuvres, inventions et signes distinctifs dans le monde physique.

     En droit des marques, la contrefaçon se modernise. Aujourd’hui, un nouveau contentieux voit le jour à travers la contrefaçon de marque par des NFTs. Le recours à la blockchain et aux NFTs, uniques et infalsifiables, permet aux consommateurs de retrouver les sentiments d’exclusivité et d’appartenance ainsi que la promesse d’unicité traditionnellement recherchés dans l’acquisition d’un bien de luxe. Or, la contrefaçon de marque peut être admise lors d’une action impliquant une marque et un NFT litigieux comme en témoigne l’affaire Metabirkin.

 

I. Les faits

     En l’espèce, Mason Rothschild, le défendeur, a décidé de lancer courant 2021 à l’adresse <metabirkins.com>, ce qu’il qualifiait d’un projet artistique, soit la mise en vente de 100 reproductions digitales inspirées du sac Birkin en fausse fourrure, commercialisées sous forme de NFTs. Si l’artiste avait pris le soin de préciser, sur le site internet <metabirkin.com>, l’absence de lien entre les NFT Metabirkin et la maison Hermès, le 14 janvier 2022, Hermès International et Hermès of Paris ont tout de même intenté une action en violation du droit des marques et de la concurrence déloyale à l’encontre de Mason Rothschild devant la Southern District Court of New York (SDNY), craignant un risque de confusion dans l’esprit du consommateur.

 

                   

  ©️ Hermès International                                  ©️ Mason Rothschild

 

 

II. La décision de la Southern District Court of New York

        La loi fédérale américaine « Lanham Act » confère en effet un monopole d’exploitation sur la marque, c’est-à-dire le droit pour son titulaire d’en interdire toute utilisation identique ou similaire non autorisée dès lors qu’il existe un risque de confusion ou un risque de dilution d’une marque renommée. Si en l’espèce, le terme « Metabirkin » fait directement référence aux sacs Birkin d’Hermès, l’auteur des NFTs, Mason Rothschild prône la liberté d’expression. Il fait valoir que son projet était artistique de sorte qu’il ne constituait pas une violation du droit des marques. Au regard de la jurisprudence américaine, l’appréciation juridique concernant l’utilisation de la marque d’un tiers dans le cadre d’un projet présenté comme artistique ou pouvant prétendre à la protection du premier amendement doit se faire à l’aune de deux précédents : lorsque le projet poursuit avant tout des velléités commerciales, le test à appliquer est celui de Gruner + Jahr ; lorsque le projet intègre en revanche un véritable concept artistique nonobstant son caractère lucratif, c’est alors le test Rogers. En vertu du premier, les juges vont simplement identifier s’il existe un risque de confusion entre les marques en cause. En vertu du second, au nom de la liberté d’expression artistique, chacun est libre d’exploiter une marque protégée dès lors que cette exploitation constitue une expression artistique qui n’induit pas explicitement les consommateurs en erreur. Or, les juges ont estimé que l’on ne pouvait pas exclure que le projet ait été considéré, à l’origine, comme présentant un intérêt artistique. En effet, indépendamment du caractère lucratif du projet, Rothschild souhaitait expérimenter si l’aspect iconique et luxueux du sac Birkin pouvait être transposé en une forme uniquement numérique en recourant de surcroît de manière ironique à de la fausse fourrure pour les orner, à une époque où les grandes maisons de cette industrie disent se libérer de toute fourrure.

        Toutefois, les juges ont considéré que Rothschild ne pouvait pas se prévaloir de la protection conférée par le premier amendement de la Constitution des États-Unis car le test Rogers démontrait qu’un risque de confusion manifeste entre la marque et l’œuvre litigieuse existait. En effet, dans le cadre du procès, Hermès avait produit une étude de marché témoignant d’un risque de confusion de 18,7% auprès du public potentiellement acquéreur de NFTs. Par ailleurs, les juges ont également retenu que Rothschild a eu recours de façon conséquente aux marques d’Hermès. Même si cette décision ne lie pas les juges de l’Union européenne de façon significative, elle indique que les droits sur une marque existante pour les produits et services qu’elle commercialise sont renforcés contre les emplois non-autorisés dans l’environnement virtuel, malgré le fait que la marque antérieure ne soit pas enregistrée pour des produits et services propres à la classe 9.

       La décision indique également que les images digitales associées aux NFTs qui reproduisent des marques antérieures peuvent constituer des formes d’expression artistique aux États-Unis. Il y a une conséquence importante à ce principe. Le juge reconnait l’expression artistique de Mason Rothschild et constate ainsi que la subtile distinction que Hermès cherchait à faire entre l’image digitale du sac Birkin d’une part et le NFT associé à cette image d’autre part, n’avait pas de raison d’être. Seul importe le point de vue de l’acheteur, déterminant en droit des marques. Or, pour ce dernier, le NFT et l’image qui lui est associé forment un tout : le NFT est l’image qu’il reproduit. La prise en compte du consommateur comme standard de référence dans la caractérisation de la contrefaçon est primordiale et le juge américain et rend sa décision en conséquence.

 

 

III. La persistance de certaines limites et interrogations

       Si la décision est bienvenue, certaines limites demeurent. En effet, elle est rendue sur le territoire américain par la SDNY. Aussi, elle n’a pas vocation à s’appliquer sur le territoire européen. Il y a donc une limite territoriale considérable. De plus, la décision n’est pas définitive puisqu’il ne s’agit que de l’interprétation des juges du fond. Mason Rothschild a en effet interjeté appel de ladite décision. L’affaire est donc à suivre.

      Enfin, même si les juges européens calquent leurs futures décisions au regard des arguments tirés de l’affaire Metabirkin contre Hermès, il s’agit encore une fois d’une jurisprudence propre aux marques de renommée. Quid des marques non-enregistrées en classe 9 qui ne bénéficient pas de la dérogation au principe de spécialité ? Si la classification de Nice s’est modernisée, conseiller les entreprises à procéder à l’enregistrement de leur marque en classe 9, par précaution, ne résout pas de façon absolue le problème puisque l’absence d’activité de la marque dans cette même classe pourrait lui faire perdre son monopole d’exploitation pour défaut d’usage sérieux de la marque.

      C’est pour cette raison que la qualification juridique du NFT est primordiale en ce que cela permettrait d’assurer une certaine harmonie juridique quant à son régime. En effet, les NFTs sont des biens immatériels diffusés très largement sur Internet. Cela signifie que le public qu’ils visent est international. Dans ce monde numérique transcontinental, une qualification juridique des NFTs est donc indispensable pour assurer l’harmonie des décisions rendues à leur égard. Or, on remarque rapidement que les quelques États qui se sont positionnés sur cette qualification n’ont pas la même conception des NFTs. La plus grande divergence tenant à la qualification ou non d’œuvre de l’esprit des NFTs.

      Le Conseil supérieur de la propriété littéraire et artistique a déposé un rapport de mission en juillet 2022 sur les NFTs en tentant de définir juridiquement ce que recouvre réellement la notion. Selon ledit Conseil, les NFTs ne sont pas des œuvres d’art. Autrement dit, le propriétaire du NFT ne pourra se défendre sur le fondement du droit d’auteur ou encore de sa liberté d’expression en cas de contentieux. Le contrôle de proportionnalité, conséquence de la fondamentalisation de la propriété intellectuelle, ne bénéficiera donc pas aux titulaires de NFTs. Cette position se comprend car le NFT est un code qui transporte une image numérique. Cette distinction entre code et image sous-jacente peut être justifiée sous l’angle du droit d’auteur. En effet, le législateur est réticent à l’idée de faire entrer dans le champ de protection du droit d’auteur des « œuvres » qui ne retracent pas réellement la personnalité de l’auteur (originalité). Si une protection au titre du droit d’auteur est par exception accordée aux logiciels (lignes de code également) par la loi Lang de 1985, les critères d’appréciation de l’originalité pour ces œuvres sont plus restrictifs. La Cour de cassation est stricte à ce sujet puisqu’elle refuse d’octroyer une protection au titre du droit d’auteur aux logiciels non-originaux, témoignant d’une simple « mise en œuvre d’une logique automatique et contraignante, la matérialisation de cet effort résultant en une structure individualisée » (Cass, 1ère civ 17 octobre 2012, n°11-21541).

      Aussi, une question subsiste : si les NFTs ne sont que des lignes de code, non-protégeables par le droit d’auteur, le juge français écartera-t-il toute contrefaçon, dès lors que l’image contrefaisante d’une marque protégée par le droit des marques ne fait pas partie intégrante du NFT ? Autrement dit, si l’on considère que le NFT est un bien distinct de la chose qu’il représente, empêchant son titulaire de se défendre au regard de sa liberté d’expression, la contrefaçon de marque n’est-elle pas alors impossible ? Une ligne de code ne peut en effet contrefaire une marque tridimensionnelle ou verbale. À cet égard, la Cour Suprême britannique a récemment décidé que les NFTs devaient être considérés comme des biens distincts de la chose qu’ils représentent, appelant donc un protection légale autonome, ce qui soulève des enjeux relatifs à la protection des marques actuellement enregistrées pour des biens matériels et non pour leur représentation numérique, notamment dans le secteur du luxe.

Cette conception du NFT n’est pas envisageable. En effet, la contrefaçon de marque et la contrefaçon en générale doivent s’apprécier par rapport au standard de référence qu’est le consommateur normalement informé et raisonnablement attentif et avisé. Or, le consommateur moyen ne fait pas de distinction entre le NFT en tant que code pur et l’image associée à celui-ci. Le NFT est compris par le consommateur comme un tout indissociable : il s’agit de l’image numérique téléchargeable. Aussi, la décision de la Southern District Court of New York dans l’affaire Metabirkin contre Hermès est tout à fait compréhensible dans le sens où les juges prennent en compte ce facteur afin de qualifier la contrefaçon de marque. Selon eux, seul importe le point de vue de l’acheteur déterminant en droit des marques. Or, pour ce dernier, le NFT et l’image qui lui est associée forment un tout. On estime alors que c’est dans cette même logique que le juge américain considère que si le consommateur perçoit le NFT comme image numérique, alors le créateur du NFT peut également se défendre en évoquant le projet artistique derrière celle-ci. D’où la qualification d’œuvre du NFT.

Ainsi, en France et en Angleterre, il y a une tendance forte à distinguer le NFT en tant que code, de l’image qu’il renvoie. Or, dans l’Union européenne, le standard de référence est toujours ce consommateur d’attention moyenne en ce qu’il est l’acteur principal dans la caractérisation de la contrefaçon. Les juges sont nécessairement contraints de prendre en compte le fait que le consommateur ne distingue pas le code de l’image. Autrement dit, la théorie de la dissociation code/image parait discriminatoire au regard du créateur du NFT. En effet, pourquoi, en référence au consommateur moyen, le juge prendrait en compte le NFT dans sa totalité, sans pour autant accorder cette conception du NFT à son titulaire et limitant ainsi ses moyens de défense ? On estime ainsi que les prochaines solutions des tribunaux français ou anglais, voire européens, seront dans le sillage de la décision rendue par la Southern District Court of New York et se conformeront à son approche de la contrefaçon. Reste à savoir s’ils abandonneront la qualification juridique restrictive actuelle accordée aux NFT.

En attendant, cette divergence quant à la qualification ou non d’œuvre d’art du NFT limite considérablement sa compréhension et son appréhension. Il est nécessaire de légiférer afin de pallier les discordances en la matière. Si ce travail de régulation a d’ores et déjà débuté, il reste aujourd’hui insuffisant.

Laure MICHELOT et Lucie DOLLA

 

Sources : 

Nathalie (D.), Marques et Internet, protection, valorisation, défense, LAMY axe de droit, LAMY, 2011, 470p

Anne-Sophie (C.), « Deuxième acte dans l’affaire des NFT « MetaBirkin » », Twelve avocats, Dalloz actualité, 25 novembre 2022

Philippe (G)., Wilhem (G)., « Droit des marques et NFT : que faut-il penser d’Hermès v Rothschild ? », 20 février 2023

Premier Amendement de la Constitution des États-Unis de 1791

Us Court of Appeals for the Second Circuit, 5 May 1989, Rogers v. Grimaldi, 875 F.2d 994, 1989

Us Court of Appeals for the Second Circuit, 28 April 1993, Gruner + Jahr USA Publishing v Meredith Corporation, 991 F.2d 1073, 1993

EUIPO, « Are trademarks protected in the metavers? », case law comment, March 30, 2023, [En ligne]. https://urlz.fr/lCAX

Article L. 714-5 du Code de la propriété intellectuelle

U.K. High Court of Justice, 10 mars 2022, Lavinia Deborah Osbourne and Person Unknown and Ozone

CJCE, 22 juin 1999, Lloyd Schuhfabrik Meyer, aff. C. 342/97

Brèves du 16 au 21 mai 2023

Bonsoir à tous,

Les brèves du 16 au 21 mai 2023 sont disponibles.

Nous remercions Ambre SANANES pour sa contribution !

En vous souhaitant une bonne lecture ainsi qu’une bonne semaine,

Le Collectif

 

Clearview condamné par la CNIL au paiement d’une amende de 5,2 millions d’euros

Clearview AI est une entreprise américaine utilisant des algorithmes d’apprentissages automatiques afin d’analyser des images et d’identifier des individus à partir de photographies provenant d’Internet et des réseaux sociaux. Son modèle économique repose sur la commercialisation d’un moteur de recherche permettant aux utilisateurs d’identifier des personnes à partir d’une simple photographie. Cette technologie est notamment utilisée par les forces de l’ordre afin de les aider à appréhender les auteurs d’infractions.

Cependant, Clearview a été confronté à des problématiques juridiques liées à la collecte et au traitement des données biométriques des individus. En conséquence, en octobre 2022, la CNIL a condamné cette entreprise au paiement d’une amende de 20 millions d’euros pour non-respect du règlement général sur la protection des données (RGPD). L’enquête menée par la CNIL a révélé que Clearview AI ne respectait pas les exigences légales prévues par le RGPD, notamment l’article 6 qui impose une base légale pour le traitement et la collecte des données personnelles, ainsi que les articles 12, 15 et 17 qui garantissent les droits d’accès, de rectification et de suppression des données personnelles.

La sanction imposée par la CNIL incluait également une astreinte de 100.000 euros par jour de retard à l’issue d’un délai de deux mois, avec un plafond fixé à 5,2 millions d’euros. La CNIL a estimé que « Clearview AI n’avait adressé aucun justificatif de mise en conformité dans le délai imparti », ce qui a entraîné la condamnation de la société au paiement d’une amende de 5,2 millions d’euros.

En 2022, d’autres autorités de protection des données, telles que celles du Royaume-Uni et de l’Italie, ont également infligé des amendes à Clearview AI, de respectivement 8,85 millions d’euros et de 20 millions d’euros. Suite à ces décisions, ces pays ont décidé d’interdire les activités de Clearview AI sur leur territoire et ont demandé à l’entreprise de supprimer les données personnelles de leurs résidents.

Ambre SANANES

 

Sources :

https://www.nextinpact.com/article/71660/la-cnil-inflige-5-millions-deuros-dastreinte-a-clearview-mais-comment-contraindre-a-payer

https://datanews.levif.be/actualite/securite/confidentialite/une-astreinte-infligee-a-la-firme-de-reconnaissance-faciale-clearview-ai/

https://www.cnil.fr/fr/reconnaissance-faciale-la-cnil-liquide-lastreinte-prononcee-lencontre-de-clearview-ai

https://www.cnil.fr/reconnaissance-faciale-sanction-de-20-millions-deuros-lencontre-de-clearview-ai

www.lefigaro.fr/flash-eco/clearview-ne-paie-pas-son-amende-la-cnil-lui-reclame-5-millions-d-euros-d-astreinte-20230510

 

Le roi de la pop art Andy Warhol a violé les droits d’auteur de la photographe Lynn Goldsmith

« Le travail des photographes mérite d’être protégé par le droit d’auteur, même contre des artistes connus », affirme la juge Sonia Sotomayor dans le cadre de l’affaire très suivie par le monde de l’art, opposant la photographe Lynn Goldsmith à la fondation Andy Warhol.

La source du litige : le cliché du chanteur Prince pris par Lynn Goldsmith et exploité par la fondation. La première avait assigné la seconde pour violation de ses droits d’auteur, n’ayant reçu aucune contrepartie financière de cette utilisation.

En effet, en 1984, l’artiste Prince fait la une du magazine Vanity Fair après le succès de son album Purple Rain. Lynn Goldsmith conclut avec le magazine un contrat de licence à usage exclusif de sa photographie pour la somme de 400 dollars.

Seulement, Andy Warhol décline le cliché de Lynn Goldsmith afin de créer une de ses mythiques photographies sérigraphiées, dont le principe consiste à reproduire des photographies de personnalités comme Marilyn Monroe pour les dupliquer en plusieurs exemplaires à fonds colorés différents.

A la mort d’Andy Warhol, Vanity Fair publie son œuvre composite. Dans cette optique, la fondation perçoit plus de 10 000 dollars. Lynn Goldsmith prend connaissance de cette atteinte à son droit d’auteur et contacte la fondation Andy Warhol pour revendiquer ses droits, mais sans résultat escompté…

Un juge de première instance avait donné raison à la fondation, considérant qu’Andy Warhol avait suffisamment modifié l’œuvre initiale. Selon lui, Lynn Goldsmith a représenté Prince comme une personne « vulnérable, mal à l’aise », alors qu’Andy Warhol a montré son image d’ « icône, plus grand que nature ». La photographe a donc interjeté appel devant une cour d’appel qui a infirmé le jugement de première instance. La Cour a effectivement estimé que, conformément à l’indifférence du mérite de l’œuvre, le juge ne pouvait s’ériger en « critiques d’art et analyser les intentions et les messages des œuvres ». La Cour a retenu que les portraits d’Andy Warhol n’avaient pas fait l’objet « d’ajout ou de modification » suffisants.

Jeudi 18 mai 2023, la Cour suprême des Etats-Unis a statué, à la majorité de sept juges sur neuf, en faveur de la photographe. En ce sens, la Cour a estimé que la requérante aurait dû être rémunérée au titre de son droit d’auteur en raison du caractère « commercial » de l’utilisation illicite de la photographie, en l’espèce, pour la couverture d’un magazine.

Une vive bataille judiciaire dont le dénouement prouve une nouvelle fois que, dans le cadre de la réalisation d’une œuvre composite, le respect des droits de l’auteur de la première reste primordial.

Ninon VANDEKERCKHOVE

 

Sources :

https://www.lefigaro.fr/culture/la-cour-supreme-des-etats-unis-la-fondation-warhol-a-verser-des-droits-d-auteur-a-lynn-goldsmith-20230518

https://www.liberation.fr/culture/photographie/droit-dauteur-la-cour-supreme-des-etats-unis-donne-raison-a-la-photographe-lynn-goldsmith-contre-la-fondation-warhol-20230518_SHYOVULZ6NCPHDSCIKOA3KQI3Y/

https://www.radiofrance.fr/franceinfo/podcasts/le-monde-est-a-nous/etats-unis-la-fondation-andy-warhol-sanctionnee-par-la-justice-americaine-pour-un-portrait-de-prince-1394408

 

Intelligence artificielle : le nouveau plan d’action dévoilé par la CNIL

L’intelligence artificielle générative, « système capable de créer du texte, des images ou d’autres contenus (musique, vidéo, voix, etc.) à partir d’une instruction d’un utilisateur humain », prend une place de plus en plus prépondérante au sein de notre société. Alors que cette dernière pose un certain nombre d’enjeux juridiques et éthiques, il convient de légiférer son usage. Et c’est ce à quoi s’attèle la Commission nationale de l’Informatique et des libertés, en lançant son plan d’action 2023.

S’étant déjà penché sur le sujet en procédant à des travaux sur notamment l’encadrement de l’usage des caméras augmentées, la CNIL dévoile un dispositif dédié entièrement à l’IA.

Cette régulation se structure autour de quatre volets, dans un objectif d’ « instaurer des règles claires, protectrices des données personnelles des citoyens européens afin de contribuer au développement de systèmes d’IA respectueux de la vie privée », comme l’a souligné le communiqué de la CNIL.

D’abord, celui d’appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes. Les outils d’IA posent des questions nouvelles sur la protection des données. De fait, des axes de travail vont alors se constituer notamment sur la loyauté et la transparence des traitements de données, la protection contre les abus et les discriminations, les collectes de données lors de l’utilisation de l’IA, les conséquences sur les droits des personnes sur leurs données, ou encore les enjeux de sécurité.

Le second volet est celui de permettre et encadrer le développement d’IA respectueuses des données personnelles, autrement dit la question de la conformité du Règlement général pour la protection des données (RGPD) à l’IA. Sur ce point, la CNIL souhaite orienter les entreprises d’IA générative en proposant des documents sur l’IA, à vocation pédagogique, qui constituent en fait des guides sur les règles applicables au partage et à la réutilisation de données. Elle poursuit également ses travaux sur la conception de systèmes d’IA et la constitution de bases de données pour l’apprentissage automatique. Dans un même temps, ces travaux permettront de préparer l’entrée du règlement européen sur l’IA qui est toujours en cours de discussion.

Le troisième volet est la fédération et l’accompagnement des acteurs innovants de l’écosystème IA en France et en Europe. Ce dernier vise à instaurer un dialogue nourri avec les équipes de recherche, centres de R&D et entreprises françaises développant, ou souhaitant développer, des systèmes d’IA dans une logique de conformité aux règles de protection des données personnelles, via notamment le lancement d’un « bac à sable » qui a vu le jour depuis deux ans ; cela permet de fournir des conseils aux acteurs innovants de l’IA.

La dernier concerne l’audit et le contrôle des systèmes d’IA ainsi que la protection des personnes. Cela implique ainsi que la CNIL doit veiller à que le développement de systèmes d’IA respecte les droits et libertés individuelles. Pour se faire, la Commission s’engage à contrôler le respect de la position sur l’usage de la vidéosurveillance augmentée par les acteurs publics comme privés (publiée en 2022), et de l’usage de l’intelligence artificielle pour la lutte contre la fraude ; enfin, la CNIL souhaite perfectionner son rôle d’instruction des plaintes qui lui sont déposées, telles que celles qu’elle a reçu à l’encontre d’OpenAI, la société américaine qui développe ChatGPT.

Louise FOUQUET-CRISTOFINI

 

Sources :

https://www.cnil.fr/fr/intelligence-artificielle-le-plan-daction-de-la-cnil

https://www.euractiv.fr/section/economie/news/protection-des-donnees-la-cnil-presente-un-plan-daction-concernant-lia-et-chatgpt/

https://www.journaldugeek.com/2023/05/17/intelligence-artificielle-la-cnil-devoile-son-plan-daction/

 

TikTok : l’application est bannie du Montana

Mercredi 17 mai, le gouvernement du Montana a promulgué une loi bannissant l’application TikTok de son territoire.  

Après plusieurs restrictions américaines entourant l’application chinoise, notamment concernant son utilisation par les fonctionnaires, le Montana devient ainsi le premier État américain à totalement l’interdire. Concrètement, à partir du 1er janvier 2024, les magasins d’applications mobiles d’Apple et Google ne devront plus distribuer TikTok, sous peine d’une amende de 10 000 dollars par jour d’infraction.

En justification de cette interdiction, il est reproché à l’application d’utiliser les informations de ses utilisateurs au profit du gouvernement chinois, de les désinformer, ainsi que d’avoir des effets néfastes sur la santé des plus jeunes, tels que l’addiction ou la dépression. Alors, selon le gouverneur Greg Gianforte, interdire TikTok vise à « protéger les données personnelles et privées des utilisateurs du Parti communiste chinois ».

Les accusations à l’encontre de l’application possédée par l’entreprise ByteDance ne sont pas nouvelles. En effet, si le propriétaire du réseau-social l’a toujours nié, de nombreux élus considèrent qu’il commet de l’espionnage pour le compte du gouvernement chinois, et c’est d’ailleurs pour cette raison que la Maison-Blanche lui avait demandé de céder la plateforme s’il souhaitait qu’elle reste accessible depuis le territoire américain.

Bien que les inquiétudes entourant l’application soient souvent partagées, cette loi ne fait pas consensus. La branche locale de l’Union américaine pour les libertés civiles (ACLU) a déclaré que « avec cette interdiction, le gouverneur Gianforte et le Parlement du Montana bafouent la liberté d’expression de centaines de milliers d’habitants du Montana qui utilisent cette application pour s’exprimer, trouver des informations et promouvoir leur petite entreprise, au nom d’un sentiment antichinois ». C’est pour cette même raison que des utilisateurs ont intenté une action en justice, arguant que cette loi est une violation de leurs droits protégés par le 1er amendement et qu’elle outrepasse le pouvoir du gouvernement du Montana. Dans un contexte où le Congrès américain envisage actuellement une interdiction nationale de l’application TikTok, le verdict risque d’être déterminant.

Esther PELOSSE

 

Sources :

https://www.lemonde.fr/pixels/article/2023/05/18/etats-unis-tiktok-interdit-dans-le-montana_6173812_4408996.html?random=1060300283

https://www.lesechos.fr/tech-medias/hightech/etats-unis-le-montana-premier-etat-a-interdire-tiktok-1944511

https://www.nytimescom/2023/05/18/business/media/tiktok-ban-free-speech-montana.html