Bonjour à tous,
Les brèves du 23 au 29 janvier 2023 sont désormais disponibles !
En vous souhaitant une bonne lecture.
Le Collectif
Nike accuse la marque Bape de copier ses modèles les plus iconiques
Le 25 janvier 2023, la célèbre marque américaine Nike a enfin décidé d’assigner en justice la marque BAPE devant le tribunal fédéral de Manhattan pour violation de son copyright. En effet, la marque japonaise, créée au milieu des années 2000, copie depuis plusieurs années les paires les plus emblématiques de la marque américaine. Nike prétend que le BAPE a introduit sa première chaussure contrefaite aux Etats-Unis en 2005.
Parmi les modèles les plus ressemblants, nous pouvons citer la Bapesta similaire aux Air Force 1, la Court Star proche des Air Jordan 1 ou encore les SK8 Sta avec les Dunk Low. Voici un tableau présenté au tribunal fédéral comparant les designs des chaussures des deux marques :
Le document présente les paires de chaussures les plus vendues par BAPE.
Les deux marques avaient déjà discuté en 2009 au sujet du copyright des Air Force 1. A la suite de ces discussions, la marque nippone avait fermé certaines de ses enseignes et repensé au design de ses paires.
Cependant, Nike déclare aujourd’hui que “le plagiat de BAPE est inacceptable et l’a toujours été, et parce que les infractions de BAPE se sont récemment développées et deviennent un danger important pour les droits de Nike, Nike doit agir maintenant”.
Suite à la réintroduction du design original de la BAPE STA en 2021 et à l’accroissement du volume de production de la marque, Nike considère que la portée de la violation de ses droits a augmenté. Elle souhaiterait donc que BAPE retire ses modèles de la vente et demande aussi à être compensée des pertes subies.
Affaire à suivre…
Lili POURHASHEMI
Sources :
https://www.radiofrance.fr/mouv/nike-attaque-la-marque-bape-en-justice-pour-contrefacon-9657236
https://www.lesitedelasneaker.com/2023/01/nike-attaque-bape-justice/
ChatGPT : Sciences Po Paris interdit à ses élèves l’utilisation de l’outil conversationnel
« ChatGPT est un acronyme qui signifie « Generative Pre-trained Transformer for Chatting ». C’est un modèle de traitement du langage développé par OpenAI, qui utilise des techniques d’apprentissage automatique pour générer du texte en réponse à des questions ou des prompts. Il est pré-entraîné sur des corpus de texte très vastes pour comprendre le langage naturel et générer des réponses cohérentes et utiles. » répond ChatGPT lorsqu’on lui demande de se définir.
Depuis son arrivée en novembre, le modèle de langage développé par Open AI est au cœur des discussions, notamment au sein des universités.
De fait, cet outil conversationnel peut effectuer de nombreuses tâches, telles que résoudre un code, traduire un texte, ou encore fournir une réponse pertinente à une question donnée. Dès lors qu’une information était disponible sur internet avant le 31 décembre 2021, ChatGPT la connaît. Il semble donc évident que lorsqu’il est attendu de la part d’étudiants qu’ils fassent des recherches pour répondre à une question, l’utilisation de ChatGPT leur permet un gain de temps considérable, voire même un gain d’exhaustivité. Cela n’a d’ailleurs pas manqué, puisqu’il a été révélé que de nombreux étudiants ont eu recours à ce modèle de langage pour faire leurs devoirs maison. Par exemple, la moitié d’une classe d’étudiants en master à l’Université Lyon 2 a utilisé l’outil afin de rédiger un devoir en handicapologie, pour une note de 11,75/20. Ainsi, bien que ChatGPT soit encore loin d’être au niveau d’un excellent élève, il peut souvent permettre d’obtenir la moyenne, et ce sans être détecté par les logiciels anti-triche actuels.
Puisque tout devoir rédigé hors d’une salle de classe peut potentiellement être fait par ou à l’aide de ChatGPT, les enseignants se sont interrogés sur leur méthode d’évaluation. Si certains voient l’arrivée de cet outil comme une opportunité de changer leur manière d’interroger, d’autres sont formels : il faut interdire Chat GPT dont l’utilisation équivaut à de la triche, du moins pour le moment. C’est ce qu’a annoncé l’Institut d’études politiques parisien, dans une lettre adressée le 26 janvier aux enseignantes et enseignants de Sciences Po Paris et dans un communiqué datant du lendemain.
La lettre commence par indiquer que l’utilisation de ChatGPT (ou de tout autre outil ayant recours à l’intelligence artificielle) sans mention explicite, est strictement prohibée, sous peine de sanction pouvant aller jusqu’à l’exclusion. La seule hypothèse où son utilisation est permise est celle d’un « usage pédagogique encadré par une enseignante ou un enseignant ».
Elle poursuit en soulignant que les pratiques pédagogiques et les méthodes d’évaluation vont devoir évoluer afin de prendre en compte les enjeux liés aux outils générateurs de langage, et que des travaux sur le sujet sont en cours.
Il semble en effet opportun, dans un contexte où de tels outils basés sur l’intelligence artificielle ne peuvent que se développer, d’adopter un nouveau modèle pédagogique prenant en compte leurs fonctionnalités, plutôt que de refuser de s’adapter au risque de fournir un enseignement décalé des réalités techniques.
Esther PELOSSE
Sources :
https://www.julsa.fr/chat-gpt-presentation-fonctionnement-utilisation/
https://www.lebigdata.fr/chatgpt
https://openai.com/blog/chatgpt/
https://siecledigital.fr/2023/01/27/interdiction-chatgpt-sciences-po/
https://newsroom.sciencespo.fr/sciences-po-interdit-lutilisation-de-loutil-chatgpt/
La création d’un service de l’intelligence artificielle par la CNIL : la réponse à un grand enjeu de société
L’émergence de l’intelligence artificielle et de ses divers outils dans la vie quotidienne, tels que le Chat GPT, témoigne d’une grande ampleur définitivement amenée à croître dans les années à venir. En effet, cette technologie, aujourd’hui vue comme un facteur d’optimisation des performances et de la rentabilité, va devenir indispensable dans de nombreux domaines, et ce autant pour les particuliers que pour les professionnels.
Cette technologie foisonnante appelle ainsi à répondre à de nombreuses questions éthiques et juridiques concrètes, notamment en matière de responsabilité et de protection de la vie privée, et c’est ce à quoi la CNIL s’est engagée avec la création de son nouveau service de l’intelligence artificielle (SIA), devenue officielle ce lundi 23 janvier 2023.
En consacrant ce service à l’IA, composé de 5 personnes dont des juristes et des ingénieurs spécialisés, la CNIL a pour principal objectif de « renforcer son expertise sur ces systèmes et sa compréhension des risques pour la vie privée tout en préparant l’entrée en application du règlement européen sur l’IA », comme le précise son communiqué de presse. En effet, alors que le règlement européen est en cours de discussion, le SIA va se charger de préparer son entrée en vigueur ; pour ce faire, il convient pour la CNIL de comprendre précisément le fonctionnement des systèmes d’IA, de consolider son expertise dans la connaissance et la prévention des risques pour la vie privée, mais également de développer ses relations avec les acteurs de l’écosystème.
La création de ce service fait écho à une étude du Conseil d’État qui avait été publiée le 30 août 2022, portant sur l’usage de l’intelligence artificielle dans les administrations. La Haute juridiction a considéré qu’il devenait opportun que la CNIL renforce ses moyens et son rôle d’autorité et de coordination afin « qu’elle devienne également une des autorités nationales de contrôle responsables de la régulation des systèmes d’IA ». Il convient de rappeler que notre autorité de contrôle nationale avait déjà débuté des travaux en la matière, en se prononçant notamment sur divers sujets liés tels que les caméras augmentées dans les espaces publics, ou encore le déploiement de la reconnaissance faciale, mais également en publiant un dossier clarifiant les enjeux posés par l’IA et son adéquation avec le respect du RGPD.
Mais ce n’est pas tout. La CNIL lance également son nouveau programme de travail sur les bases de données d’apprentissage. Dans un système d’IA où d’importants volumes de données personnelles circulent, par souci de développement et d’entraînement des algorithmes, la CNIL s’engage à accompagner les professionnels et garantir le respect des droits et des libertés fondamentaux des personnes « en promouvant les bonnes pratiques », toujours en se basant sur le RGPD mais également en perspective du futur règlement européen de l’IA. À ce titre, la CNIL publiera des recommandations dans l’année qui suit, à destination des acteurs privés et publics souhaitant constituer des bases de données en vue d’améliorer et de développer leur système d’IA.
Louise FOUQUET-CRISTOFINI
Sources :
https://www.cnil.fr/fr/intelligence-artificielle-ia
https://www.cnil.fr/fr/reconnaissance-faciale-pour-un-debat-la-hauteur-des-enjeux
Réforme des retraites : investigations de la CNIL après l’envoi d’un mail du ministre de la Transformation et de la Fonction publique
Alors que le projet de réforme des retraites est fortement controversé – et quelque peu forcé par l’utilisation massive du 49.3 –, l’envoi à 2,5 millions d’agents et anciens agents de la fonction publique d’Etat d’un mail sur leur boîte personnelle leur a laissé un arrière-goût de « propagande gouvernementale ».
Le 26 janvier 2023, la CNIL a été saisie par plusieurs syndicats de la fonction publique dont la CGT, la FO et l’UNSA, pour se prononcer sur la conformité aux règles de protection des données personnelles d’un courriel électronique du ministre de la Transformation et de la Fonction publique, Stanislas Guerini. Ce dernier présente aux agents publics les principales mesures de la réforme des retraites dans une vidéo d’environ 6 minutes jointe au mail. Cependant, le courriel a été envoyé sur l’adresse privée des fonctionnaires et non sur leur adresse professionnelle.
« Dans la vidéo, Stanislas Guerini s’adresse directement aux agents et explique la réforme comme si elle avait déjà été adoptée telle quelle au Parlement », désapprouve Céline Verzeletti, secrétaire confédérale de la CGT. Pour la FO, le ministère a « détourné la finalité » de l’utilisation des adresses de messagerie électronique des fonctionnaires à des fins de propagande.
Le ministère récuse tout acte contraire au règlement général sur la protection des données (RGPD). « Aucune transmission de fichier de contacts n’a été faite » entre la Direction générale des Finances publiques (DGFIP) et le ministère. Les mails auraient été envoyés aux fonctionnaires par la DGFIP, qui « dispose des adresses e-mail communiquées par les agents publics (professionnelles et/ou personnelles) dans leurs relations avec l’administration ».
A ce stade de l’instruction, la CNIL ne peut se prononcer sur la conformité de l’utilisation des données à caractère personnel, mais s’est rapprochée du ministère et examinera « si l’envoi du message a respecté les principes généraux de protection des données personnelles et les règles spécifiques fixées par l’acte juridique créant le ou les fichiers concernés ». Elle prendra donc position ultérieurement.
Ninon VANDEKERCKHOVE
Sources :