Brèves du 19 au 25 juin 2023

Bonsoir à tous,

Les brèves du 19 au 25 juin 2023 sont disponibles.

En vous souhaitant une bonne lecture et une bonne semaine,

Le Collectif 🙂

Canada : Meta et Google contraints à rémunérer les médias locaux

Le Canada a adopté jeudi une loi imposant aux intermédiaires numériques de rémunérer les médias lorsqu’ils mettent à disposition des liens vers leurs articles.

Ce texte, « Online News Act », vise à renforcer l’équité sur le marché canadien de l’information numérique et à contribuer à sa viabilité. Soutenir le secteur de l’information est en effet une priorité pour le pays, à une heure où plus de 450 médias ont fermé leurs portes en 15 ans.

Ainsi, l’objectif est que les revenus tirés du numérique, notamment de la publicité en ligne, soient partagés équitablement entre les intermédiaires et les éditeurs de contenus. Pour ce faire, Alphabet (Google) et Meta (Instagram et Facebook) doivent négocier des accords avec les éditeurs de presse, sous peine d’être soumis à un arbitrage contraignant et de se voir unilatéralement imposer un montant. D’après Bill Grueskin, professeur de journalisme à l’Université de Columbia, ceci pourrait permettre aux entreprises du secteur de récolter 300 millions de dollars canadiens par an.

Toutefois, ces prévisions risquent de s’avérer fausses si les plateformes ne se plient pas à leurs nouvelles obligations, et la réaction de Meta n’augure rien de bon.  En effet, afin de se conformer à la nouvelle loi et plutôt que de conclure des accords avec les sociétés de médias, le détenteur de Facebook et Instagram a déclaré qu’il retirerait les articles canadiens de ses plateformes.

Quant à Google, bien que la compagnie ait déclaré que la loi devrait être modifiée et que des discussions avec le gouvernement soient toujours en cours, l’entreprise avait, au même titre que Meta, effectué des tests consistant à bloquer l’accès de certains canadiens aux informations en ligne. Rien n’est donc encore fixé. 

Pour le premier ministre canadien, « Le fait que ces géants de l’internet préfèrent couper l’accès des canadiens aux nouvelles locales plutôt que de payer leur juste part est un vrai problème » et ne le poussera pas à reculer.

La loi devrait entrer en vigueur dans six mois. Affaire à suivre… 

Esther PELOSSE

 

Sources :

https://www.parl.ca/DocumentViewer/en/44-1/bill/C-18/third-reading

https://about.fb.com/news/2023/06/changes-to-news-availability-on-our-platforms-in-canada/

https://www.nytimes.com/2023/06/23/business/media/meta-google-canada-news-facebook-instagram.html

https://nouveau-europresse-com.ezproxy.universite-paris-saclay.fr/Link/U031535T_11/news%c2%b720230624%c2%b7TR%c2%b7967159

https://apnews.com/article/google-meta-canada-news-online-bill-47b782ca56ecec25bc633c9a9b5417f9

https://www.mediapart.fr/journal/international/230623/le-canada-veut-faire-payer-les-geants-du-web-meta-bloque-les-medias-canadiens

 

Apple veut déposer sa pomme à titre de marque en Suisse : des vertes et des pas mûres pour le monde agricole

Emblème de l’entreprise californienne, Apple a déposé une demande pour enregistrer sa pomme à titre de marque figurative en Suisse afin d’en récolter les fruits autrement dit les droits de propriété intellectuelle.

En automne dernier, l’Institut fédéral de la propriété intellectuelle (IPI) avait refusé d’enregistrer la marque. De fait, la firme avait saisi le Tribunal administratif fédéral (TAF) qui a siégé à ce sujet le 20 avril dernier et qui rendra sa décision dans quelques mois.

Recours contre la décision de l’IPI toujours pendant devant le TAF, l’affaire reste donc confidentielle sans l’autorisation d’Apple. Toutefois, le TAF a expliqué la décision de l’IPI : « L’institut a expliqué que la marque figurative appartient au domaine public. Le signe litigieux montre une représentation fidèle d’une pomme et est compris comme une référence au contenu thématique d’une partie des produits litigieux. Le signe est donc dépourvu du caractère distinctif nécessaire ».

Sur le site web du TAF, il est indiqué qu’Apple est « titulaire de l’enregistrement international IR 1 028 240 (une image de pomme) basé aux Etats-Unis, qui est revendiqué pour des produits de la classe 9. Ces produits comprennent essentiellement des enregistrements sonores, vidéo et cinématographiques ainsi que les supports de données correspondants ». Une protection sur le signe litigieux que la firme souhaite étendre en Suisse.

Même si la firme a déjà gagné une bataille juridique pour faire enregistrer en Suisse la marque verbale « Apple », le public associant fortement le signe à l’entreprise informatique, rien n’est encore joué pour l’enregistrement de l’image d’une pomme.

L’interprofession Fruit-Union Suisse s’inquiète. En effet, les répercussions pourraient s’avérer d’une ampleur considérable, puisque cette organisation a pour logo une pomme rouge avec un croix suisse blanche. « L’image d’une pomme appartient à toutes et tous et n’a vraiment pas été inventée par Apple » explique l’Union des coopératives agricoles.

Une énième pomme de discorde entre le monde industriel et le monde agricole…

Ninon VANDEKERCKHOVE

 

Sources :

https://www.letemps.ch/economie/apple-veut-enregistrer-pomme-marque-suisse-inquiete-monde-agricole

https://www.vanityfair.fr/article/en-suisse-apple-veut-sapproprier-les-droits-sur-limage-de-la-pomme

https://www.phonandroid.com/apple-veut-interdire-aux-autres-entreprises-dutiliser-des-pommes-dans-leurs-communications.html

Brèves du 12 au 18 juin 2023

Bonsoir à tous,

Les brèves du 12 au 18 juin 2023 sont disponibles.

En vous souhaitant une bonne lecture ainsi qu’une bonne semaine,

Le Collectif 🙂

ChatGPT, poursuivi en justice pour la première fois

 

 

Le 5 juin dernier, un animateur radio américain, Mark Walters, a décidé de porter plainte dans l’État de Géorgie contre OpenAI (le concepteur chatbot génératif), pour diffamation. En effet, selon lui, ChatGPT aurait inventé de fausses allégations à son encontre.

La plainte déposée par l’animateur de radio pourrait constituer la première affaire de diffamation contre une intelligence artificielle. Elle pourrait donc permettre de préciser le droit américain autour de la responsabilité des IA, plus précisément de clarifier la responsabilité des éditeurs d’IA.

C’est Fried Riehl, rédacteur en chef d’un média spécialisé dans les armes à feu, qui a constaté les tromperies de l’IA et qui a prévenu Mark Walters. Selon Numerama, le résumé produit par ChatGPT expliquait que “Mark Walters serait accusé d’avoir détourné plus de 5 millions de dollars d’une organisation à but non lucratif (Second Foundation, une fondation de soutien aux armes à feu à laquelle il est relié)”. Selon les proches du journaliste, cette accusation aurait été inventée de toutes pièces.

La plainte déposée contre OpenAI accuse l’entreprise d’allégation fausses et malveillantes (…) tendant à nuire à la réputation de Walters et l’exposant à la haine public, au mépris ou au ridicule.” Open AI est également accusé d’avoir fait preuve de “négligence dans sa communication à Riehl concernant Walters.” Mark Walters a donc demandé réparation à OpenAI, sous forme de dommages-intérêts.

Pour l’instant, il n’existe aucun précédent juridique aux Etats-Unis qui puisse aider les juges dans leur décision. Cependant, il reste à préciser que dans sa version web, l’interface de ChatGPT précise que l’IA “peut produire des informations inexactes sur des personnes, des lieux ou des faits.” Cette mention préventive ne suffira sans doute pas à disculper totalement OpenAI.

Lili POURHASHEMI

Sources :

https://www.20minutes.fr/high-tech/4040921-20230612-chatgpt-poursuivi-justice-diffamation-journaliste-americain-premiere

https://www.numerama.com/tech/1410336-un-animateur-radio-porte-plainte-contre-chatgpt-quil-accuse-de-mentir.html

https://www.presse-citron.net/chatgpt-le-presente-comme-un-voleur-il-lattaque-en-justice/

 

Nouveau projet de réglementation de l’intelligence artificielle adopté par le Parlement européen

 

 

Dans une volonté de réguler les outils d’intelligence artificielle, véritable vecteur d’innovations en Europe et dans le monde entier, le Parlement européen a adopté en assemblée plénière ce mercredi 14 juin sa version du projet de règlement sur l’intelligence artificielle « AI Act ». Avec 93 voix d’abstention et 28 contre, c’est la majorité à 499 voix, qui l’a largement remportée.

Alors que ce dernier avait été introduit par la Commission européenne en avril 2021, les eurodéputés tiennent comme objectif que l’IA se développe tout en étant conforme aux droits et principes de l’Union européenne ; À ce titre, comme l’a déclaré le co rapporteur Dragoş Tudorache, “La loi sur l’IA donnera le ton au niveau mondial en matière de développement et de gouvernance de l’intelligence artificielle, en veillant à ce que cette technologie, appelée à transformer radicalement nos sociétés grâce aux avantages considérables qu’elle peut offrir, évolue et soit utilisée dans le respect des valeurs européennes que sont la démocratie, les droits fondamentaux et l’État de droit”.

Cette première étape tant attendue marque ainsi l’aboutissement d’un travail rigoureux d’encadrement de ce secteur qui est en pleine expansion. En effet, avec le développement récent de nouveaux outils d’IA générative, tels que le robot conversationnel ChatGPT ou Midjourney, de nouvelles dispositions ont été insérées afin de régler diverses problématiques. À titre d’exemple, concernant le respect des droits de propriété intellectuelle, le texte prévoit l’obligation de déclarer si des textes, des images ou des musiques protégés par le droit d’auteur ont été utilisés pour entraîner les modèles d’IA. De ce fait, si une œuvre a été utilisée sans le consentement de l’auteur, ce dernier pourra revendiquer ses droits en justice et obtenir une rémunération, le cas échéant.
Dans le même sens, des mesures contre les contenus illégaux devront être mises en place, aussi bien que des études d’impact afin de déterminer si leur application concerne les systèmes considérés à « haut risque ». Ces derniers sont qualifiés comme tels car ils portent gravement atteinte à la santé, à la sécurité, aux droits fondamentaux des personnes ou à l’environnement.  Ainsi, les systèmes d’IA utilisés pour influencer les électeurs et le résultat des élections, ainsi que les systèmes d’IA utilisés dans les systèmes de recommandation exploités par les plateformes de réseaux sociaux ont été classifiés comme des systèmes à « haut risque » par le Parlement. 

Plus généralement, le Parlement européen prévoit dans son texte l’interdiction des « usages intrusifs et discriminatoires » de l’intelligence artificielle. Parmi eux, on peut retrouver les systèmes d’identification biométrique à distance « en temps réel » dans les lieux publics, ceux utilisant des caractéristiques sensibles (la religion, l’orientation politique, le genre, l’origine ethnique…), ou encore les outils de police prédictive (concernant le profilage, localisation…) et de détection des émotions. 

En bref, de nouvelles mesures sont amenées à s’appliquer. Encore faut-il que la Commission et le Conseil européen les approuvent, ce qui risque de prendre du temps. 

 

Louise FOUQUET-CRISTOFINI

 

Sources :

https://www.usine-digitale.fr/article/le-parlement-europeen-adopte-un-projet-de-reglementation-de-l-intelligence-artificielle.N2143337

https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_EN.pdf

https://www.actuia.com/actualite/le-parlement-europeen-adopte-lai-act-en-pleniere/




Brèves du 5 au 11 juin 2023

Bonsoir à tous,

Les brèves du 5 au 11 juin 2023 sont disponibles.

En vous souhaitant une bonne lecture ainsi qu’une bonne semaine,

Le Collectif 🙂

 

Etats-Unis : La SEC s’attaque aux géants de la Crypto, Binance et Coinbase

Les plateformes Binance et Coinbase sont sous le viseur de l’autorité de régulation des marchés américains, la SEC (U.S. Securities and Exchange Commission). Cette semaine, à 24 heures d’intervalles, les deux plateformes ont été accusées de ne pas respecter la loi américaine sur les titres financiers.

D’abord, le 5 juin, la SEC a porté 13 accusations contre Binance et son co-fondateur Changpeng Zhao. Il est reproché à la plateforme de ne pas s’être enregistrée auprès du régulateur pour offrir des activités d’échange, de courtage et de compensation ainsi que d’avoir offert et vendu des valeurs immobilières non enregistrées. L’opacité de la société est également critiquée. La plateforme et son co-fondateur sont notamment accusés d’avoir redirigé des milliards d’actifs de clients vers une société détenue par Changpeng Zhao.

A la suite de cet évènement, les banques américaines ont déclaré rompre leur partenariat avec Binance US, et donc ne plus permettre le retrait en dollars des actifs détenus sur la plateforme. En conséquence, Binance US a averti ses utilisateurs, les poussant à retirer leurs dollars le plus vite possible, et a décidé de suspendre les dépôts et conversions en dollars. Ainsi, la plateforme se voit coupée d’une grande partie de son marché.

Puis, moins de 24 heures plus tard, le 6 juin, la SEC s’est attaqué à Coinbase. La SEC accuse également cette plateforme d’avoir opéré comme une bourse de valeurs, un courtier et une agence de compensation sans être enregistrée comme tel, ainsi que d’avoir offert et vendu des valeurs mobilières non enregistrées.

Suite à ces attaques, les plateformes ont argué qu’elles ne savaient pas comment se conformer à la règlementation sur les valeurs mobilières en raison d’un manque de clarté. Elles critiquent l’approche de la SEC consistant à les sanctionner pour non-conformité plutôt qu’à les éclairer sur la manière dont elles pourraient respecter la loi américaine. Si pour Gary Gensler, Président de la SEC, cet argumentaire n’est pas valide, de nombreux individus considèrent que la réglementation est effectivement floue, par exemple en ce elle désigne de manière aléatoire quels cryptoactifs revêtent la qualité de valeurs mobilières.

La sévérité du Gouvernement américain à l’encontre des sociétés de cryptomonnaie, évidente depuis la chute de la plateforme FTX en novembre 2022, effraie les acteurs de l’industrie. En réaction, certains envisagent de s’implanter sur d’autres territoires, voire de totalement quitter le sol américain. Ne souhaitant pas voir le marché américain privé des bénéfices générés par cette industrie en plein essor, certains sénateurs ont critiqué l’action de la SEC et une proposition de loi « Lummis-Gillibrand Crypto Bill » a été introduite pour une règlementation favorable aux cryptomonnaies.

Affaire à suivre…

Esther PELOSSE

 

Sources :

https://www.sec.gov/news/press-release/2023-102

https://www.sec.gov/news/press-release/2023-101

https://coinacademy.fr/actu/sec-proces-binance-cz-coinbase/

https://fr.cryptonews.com/news/gary-gensler-donne-des-solutions-tout-en-critiquant-binance-et-coinbase.htm

https://www.nytimes.com/2023/06/07/technology/crypto-firms-start-looking-abroad-as-us-cracks-down.html

 

Copyright et Trump ne font pas bon ménage…

La propriété intellectuelle s’invite même en politique.

En campagne pour l’élection présidentielle 2024 aux Etats-Unis, Donald Trump a utilisé, dans un clip de levée de fonds, un extrait du film « Air » produit par les démocrates Ben Affleck et Matt Damon.

N’ayant obtenu aucune autorisation, ils ont condamné cette utilisation détournée : « En vertu de la loi américaine sur le droit d’auteur et la propriété intellectuelle, nous notifions expressément par la présente que quelle que soit la nature pour laquelle la campagne Trump diffuserait des extraits d’Air, aucune autorisation ni consentement ne leur ont été accordés ».

L’ancien président a exploité les paroles de Sonny Vaccaro (interprété par Matt Damon) visant à persuader Michael Jordan d’accepter le partenariat avec Nike : « C’est une histoire typiquement américaine, et c’est pourquoi les Américains vont l’adorer. Les gens vont t’adorer, et mon Dieu, ils vont vraiment le faire. Parce que quand on est génial, et nouveau, les gens t’aiment. Tu vas changer le monde. (…) Je vais te dire la vérité. Tu vas être attaqué, trahi, exposé, humilié. Mais tu vas survivre ». Dans sa version, Trump fait écho à son propre parcours : arrière-plan de musique dramatique, photos de son enfance, de sa présidence à la Maison Blanche et de ses meetings, jusqu’à aujourd’hui, son inculpation pour 37 chefs d’inculpation dans l’affaire des archives de la Maison Blanche.

Et pourtant… Ce n’est pas la première fois que Donald Trump ne respecte pas le copyright. Multirécidiviste en la matière, il avait utilisé des images de Game of Thrones, de Batman : The Dark Knight et de la musique We Will Rock You.

Ninon VANDEKERCKHOVE

 

Sources :

https://www.huffingtonpost.fr/international/article/ben-affleck-et-matt-damon-ne-veulent-pas-que-donald-trump-utilise-leur-image-pour-sa-campagne_219064.html

https://www.lefigaro.fr/cinema/donald-trump-ulcere-ben-affleck-et-matt-damon-en-detournant-une-sequence-de-leur-film-air-20230611

https://www.bfmtv.com/people/ben-affleck-et-matt-damon-furieux-que-donald-trump-ait-utilise-un-extrait-de-leur-film-air_AN-202306110216.html

Brèves du 29 mai au 4 juin 2023

Bonsoir à tous,

Les brèves du 29 mai au 4 juin 2023 sont disponibles.

En vous souhaitant une bonne lecture ainsi qu’une bonne semaine,

Le Collectif

 

La loi encadrant les pratiques des influenceurs définitivement adoptée par le Parlement

De nombreux influenceurs ayant déjà commis des abus sur les réseaux sociaux, en faisant notamment la promotion de produits dangereux pour la santé, l’importance de réglementer cette nouvelle activité est de taille. Et c’est chose faite : après le vote en Assemblée, une unanimité de 342 sénateurs a marqué l’adoption du nouveau texte. 

Mais comment définit-on cette profession novatrice ? le texte considère que les influenceurs sont des personnes qui, contre rémunération ou avantages en nature, « mobilisent leur notoriété auprès de leur audience pour communiquer » en ligne « des contenus visant à faire la promotion, directement ou indirectement, de biens, de services ou d’une cause quelconque ».

En France, ces derniers seraient au nombre de 150 000, dont certains avec une audience modeste mais d’autres comptant plusieurs millions d’abonnés. 

 

Que prévoit le texte ? 

L’objectif de cette nouvelle loi est clair : lutter contre les dérives et arnaques de ces personnes. Ainsi, plusieurs choses ont été réglementées notamment sur le domaine lié à la santé : toute promotion de la chirurgie esthétique ou de l’abstention thérapeutique est interdite, au même titre que la promotion de la nicotine. De même, la promotion de dispositifs médicaux est interdite ou bien sévèrement encadrée. 

Concernant les paris sportifs, les influenceurs ne pourront plus promouvoir les abonnements à des pronostics sportifs. La promotion de certains produits ou services financiers tels que la crypto-monnaie est également dorénavant interdite. 

Concernant la modification de photos publiées, avec l’utilisation par exemple de filtres, les influenceurs devront faire mention sur leurs publications « images retouchées » ou « images virtuelles ». 

En cas de manquement à ces obligations, les peines prévues iront jusqu’à deux ans de prison et 300 000 euros d’amende. Sur ce point, la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) verra ses pouvoirs renforcés en matière d’astreintes et de mises en demeure prononcées à l’encontre des influenceurs.

Les activités des agents d’influenceurs sont également encadrées ; ces derniers devront notamment conclure des contrats écrits, lorsqu’un certain seuil de rémunération a été atteint, qui comprendront alors certaines clauses obligatoires (missions, conditions de rémunération…).

En bref, toutes ces nouvelles réglementations vont permettre de mieux protéger les consommateurs. 

 Louise FOUQUET-CRISTOFINI

 

Sources :

https://www.vie-publique.fr/loi/288793-regulation-des-influenceurs-proposition-de-loi-delaporte-vojetta

https://www.lemonde.fr/pixels/article/2023/06/01/influenceurs-la-premiere-loi-encadrant-le-secteur-definitivement-adoptee-par-le-parlement_6175749_4408996.html

 

 

Union européenne et Etats-Unis : Vers un code de conduite sur l’intelligence artificielle

A l’occasion de la quatrième réunion ministérielle du Conseil du commerce et des technologies (CCT), l’Union européenne et les Etat- Unis ont annoncé un projet commun de « code de conduite » sur l’intelligence artificielle.

Le CCT UE-Etats-Unis est un forum lancé en 2021 qui permet à l’Union européenne et aux États-Unis de coordonner leurs approches concernant les questions essentielles en matière de commerce et de technologie, sur la base de valeurs démocratiques communes. Ainsi, l’objectif est celui d’une collaboration transatlantique sur des questions telles que les technologies émergentes, le commerce durable ou encore les droits de l’homme dans l’environnement numérique.

Cette année, l’intelligence artificielle fût au cœur des débats. Pour les participants il est clair que cette technologie présente autant de bénéfices potentiels que de risques et qu’elle doit donc faire l’objet d’une attention toute particulière, et ce notamment au regard du développement exponentiel des systèmes d’IA générative.

L’un des points discutés fût alors l’établissement d’un code de conduite volontaire ayant pour objectif de favoriser le développement de l’IA tout en atténuant ses risques, prenant en compte l’avis d’experts indépendants comme de membres de l’industrie. Les participants considèrent qu’il est urgent d’avancer dans l’écriture du premier jet de ce texte en raison du lapse de temps qui sera ensuite nécessaire à sa mise en application, d’environ trois ans du fait des procédures législatives des participants. De ce fait, il devrait être prochainement possible d’avoir une idée des solutions proposées pour la réalisation des objectifs du CCT. 

Ce code, qui devrait être d’application volontaire pour les entreprises du secteur, pourra être adopté par tous les pays partageant les mêmes idées que les Etats-Unis et l’Union européenne sur la question, en particulier le Canada, le Royaume Uni, le Japon ou encore l’Inde. Si la Chine ne fait pas partie des potentiels partenaires cités en la matière, c’est que ce texte a aussi pour objectif de ne pas lui laisser le la en matière de réglementation de l’IA. Les occidentaux souhaitent en effet définir les standards imposés à cette technologie afin qu’elle se développe en respectant les droits fondamentaux, ce qui semble souhaitable au regard des nombreuses voix qui s’élèvent pour alerter sur les dangers de l’IA.

Esther PELOSSE

 

Sources :

https://www.state.gov/secretary-antony-j-blinken-and-u-s-eu-trade-and-technology-council-ministerial-co-chairs-at-a-joint-press-availability/

https://france.representation.ec.europa.eu/informations/le-conseil-du-commerce-et-des-technologies-ue-etats-unis-renforce-la-cooperation-dans-plusieurs-2023-05-31_fr

https://www.whitehouse.gov/briefing-room/statements-releases/2023/05/31/u-s-eu-joint-statement-of-the-trade-and-technology-council-2/

https://ici.radio-canada.ca/nouvelle/1983730/encadrement-ia-union-europeenne-etats-unis

https://www.lefigaro.fr/conjoncture/intelligence-artificielle-l-europe-et-les-etats-unis-veulent-un-code-de-conduite-20230531

Intelligence artificielle et discriminations, entre solutions et risques

Les nouvelles technologies sont-elles le reflet de notre société ? Selon Karine Gentelet, « on ne peut pas séparer la technologie de l’Humain. La technologie est quelque chose créé par des humains, pas dans un vacuum social. »

Ainsi, la lutte contre les discriminations ne déroge pas à cette analogie en matière d’intelligence artificielle.

Selon le Parlement européen, l’intelligence artificielle représente tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». On peut également enrichir cette définition en y ajoutant les comportements dépassant les capacités humaines, puisque les ordinateurs actuels parviennent aujourd’hui à les surpasser dans certaines tâches (bien que la compétence de l’ordinateur s’arrête généralement à l’exécution de cette tâche).

En droit, une discrimination est un traitement défavorable qui doit généralement remplir deux conditions cumulatives : être fondé sur un critère défini par la loi (sexe, âge, handicap…) et relever d’une situation visée par la loi (accès à un emploi, un service, un logement…).

À ce jour, la loi reconnait plus de 25 critères de discrimination. Ainsi, défavoriser une personne en raison de ses origines, son sexe, son âge, son handicap, ses opinions… est interdit à la fois en droit interne et par plusieurs conventions internationales auxquelles adhère la France.

La non-discrimination est certes garantie par la loi mais pas nécessairement sa lutte. La lutte contre les discriminations nécessite parfois la mise en place de règles dérogeant au principe d’égalité mais qui se rapprochent davantage de l’équité. Néanmoins ces exceptions légalement admises permettent la mise en place d’une égalité effective, position qui ne fait malheureusement pas l’unanimité…

On a longtemps pensé que les systèmes utilisant l’intelligence artificielle étaient plutôt objectifs, plus généralement comme toutes les technologies. Or la technologie n’est pas neutre, tout comme l’intelligence artificielle. De tels systèmes peuvent avoir les mêmes biais que ceux qui les ont imaginés, de facto subjectifs.

L’existence de discrimination est d’autant plus complexe en matière d’intelligence artificielle en ce que son fonctionnement reste très opaque pour un grand nombre de ses utilisateurs. L’alphabétisation au numérique, qui tend à s’élargir et doit permettre à chaque utilisateur de comprendre les ressorts de la machine, reste relativement limitée.

Qu’il s’agisse d’un outil dans la lutte contre les discriminations (I) ou d’un risque (II), l’intelligence artificielle nécessite d’être réglementée au regard des normes applicables aujourd’hui (III).

 

I. L’intelligence artificielle, un instrument potentiel pour éviter les discriminations

Une intelligence artificielle éthique nécessite des algorithmes éthiques. Autrement dit, la base de la décision ne doit pas être fondée sur une discrimination.

Comme le préconise la CNIL, dans ses recommandations fonctionnelles eu égard à l’intelligence artificielle, tous les acteurs-maillons de la “chaîne algorithmique” doivent être sensibilisés à cet enjeu.  De ce fait, favoriser la mixité et la diversité parmi les développeurs est une solution présentée.

En effet, si les biais des algorithmes sont en partie liés aux biais cognitifs de ceux qui les programment, on comprend l’importance que revêt la diversité parmi les développeurs. Or, le secteur de l’informatique et des nouvelles technologies est largement dominé par les hommes. Le rapport Villani rappelle que « les femmes représentent […] à peine 33 % des personnes du secteur numérique (12 % seulement, si l’on écarte les fonctions transversales et supports) ». De nombreuses études montrent que les minorités ethniques sont également sous-représentées. Rendre les systèmes algorithmiques compréhensibles en renforçant les droits existants et en organisant la médiation avec les utilisateurs ou encore travailler le design des systèmes algorithmiques au service de la liberté humaine, pour contrer l’effet « boîtes noires », permettra également de lutter plus efficacement contre les inégalités.

Les intelligences artificielles sont créées par l’homme. Donc, si nous leur transmettons nos biais, nous pouvons également leur apprendre à les éviter. Nous pouvons « désencoder » les discriminations et développer pour inclure, notamment sur le choix de l’algorithme ou des variables prédictives à prendre en compte.

Des chercheurs du MIT ont ainsi pu présenter Diversity in Faces Dataset, un jeu de données regroupant un million de visages humains étiquetés, censé être représentatif de la société et visant à améliorer les technologies de reconnaissance faciale.

Enfin, l’intelligence artificielle peut avoir pour objectif au-delà de l’utilisation de données non biaisées au fondement de son fonctionnement, la lutte contre les discriminations.

Par exemple, les applications Seeing AI de Microsoft ou Lookout de Google aident les personnes aveugles ou malvoyantes à identifier des éléments (individus, objets, textes, etc.) présents dans leur environnement grâce à la reconnaissance automatique d’images.

Malgré tout, l’intelligence artificielle peut représenter un risque dans la lutte contre les discriminations notamment au regard des « biais de l’IA », qui désigne une situation dans laquelle un système de Machine Learning discrimine un groupe de personnes en particulier, reflétant les discriminations de notre société.

II. Des risques dans la lutte contre les discriminations

L’intelligence artificielle, même si elle appartient au domaine technologique et même scientifique, connaît néanmoins des limites et une certaine marge d’erreurs non négligeable.

Un rapport de l’Agence des droits fondamentaux de l’UE (FRA) rappelle que si l’utilisation de systèmes algorithmiques peut avoir des conséquences positives, ils peuvent aussi violer certains droits fondamentaux ou conduire à des prises de décisions discriminatoires.

Par exemple, en 2020, au Pays-Bas, il est apparu que les autorités fiscales néerlandaises avaient utilisé des algorithmes qui avaient par erreur étiqueté quelque 26 000 parents comme ayant commis une fraude dans leurs demandes d’allocations familiales. Or la majorité de ces parents étaient issus de l’immigration.

En France, la CNIL nous informe d’ailleurs sur certaines de ces défaillances, notamment liées à la conception du système.

Plusieurs dangers ont ainsi pu être mis en exergue, ils seront illustrés notamment au travers de l’exemple des applications de rencontre en ligne dont la plus connue est “Tinder”.

  • L’algorithme repose sur des hypothèses et certaines peuvent s’avérer trop approximatives.

Sur ce point, on peut par exemple se référer à l’ouvrage de Judith Duportail, qui a publié L’amour sous algorithme en 2019. Elle nous révèle ainsi que chaque utilisateur se voit attribuer une note de désirabilité basée entre autres sur le taux de personnes qui, voyant le profil, veulent entrer en contact avec l’individu qui se cache derrière.

Ainsi, “Tinder se réserve la possibilité de nous évaluer sur notre attractivité, mais pas seulement : sur notre intelligence, en lisant nos messages, et en regardant si on utilise des mots compliqués, sur  notre niveau d’étude et notre niveau de revenu.”                          L’égalité entre les utilisateurs est totalement inexistante sur cette application et c’est d’ailleurs sur cette différence de traitement structurelle que repose le modèle économique de la plateforme.

En effet, Tinder est aujourd’hui l’application la plus rentable de l’Apple Store, grâce aux packs qu’elle propose à ses utilisateurs pour « booster » leur profil.

  • De mauvais critères peuvent également être retenus lors de l’entraînement de l’algorithme, celui-ci est évalué sur la réalisation d’une tâche selon certains critères, ou métriques. De facto, les critères et le seuil final choisis auront des conséquences importantes sur la qualité du système final.

 

  • Enfin, l’une des défaillances majeures en matière d’intelligence artificielle réside dans le manque de représentativité.
    Cette anomalie se produit au moment de la procédure d’échantillonnage qui peut également être biaisée. In fine, certains cas réels n’ont pas été pris en compte dans les données d’entraînement. Or, les données d’entraînement biaisées peuvent conduire à des systèmes d’IA biaisés.

L’Agence des droits fondamentaux de l’Union européenne (FRA) propose ainsi de tester les algorithmes pour biais avant application pour éviter la discrimination. Cette proposition s’inscrit dans un projet plus large en la matière ayant pour objectif de réglementer l’intelligence artificielle.

 

III. Des perspectives de régulation de l’intelligence artificielle

Des perspectives de régulation de l’intelligence artificielle ont été tracées par le Conseil de l’Europe comme par la Commission européenne, portées par des études ayant pu souligner les risques que les systèmes dits d’intelligence artificielle (IA) et de prise de décision automatisée font peser sur les principes d’égalité et de non-discrimination en matière d’emploi, de fourniture de biens ou services publics ou privés, de politiques publiques de sécurité ou encore par exemple de lutte contre la fraude.

Ainsi, l’Artificial Intelligence Act (IA Act), le projet de règlement de la Commission européenne sur l’IA, proposé pour la première fois en avril 2021 a pour ambition d’apporter un cadre juridique uniforme à l’usage et à la commercialisation des intelligences artificielles. Pour protéger les usagers, les IA seront  catégorisées au regard de la gravité des risques qu’elles posent.

Ce projet de réglementation n’aborde toutefois pas directement les risques que pourrait créer l’intelligence artificielle en matière de lutte contre les discriminations, si bien que l’ autorité administrative indépendante appelle à replacer le principe de non-discrimination au cœur du projet de règlement de la commission européenne.

En effet, le 25 juin, a été publié un avis intitulé « Pour une IA européenne protectrice et garante du principe de non-discrimination » réalisé conjointement avec Equinet, le réseau européen des organismes de promotion de l’égalité, dont il est membre.

Parmi les garanties qui doivent être apportées par le Règlement, l’avis a pu établir sept recommandations parmi lesquelles le premier objectif est de faire du principe de non-discrimination une préoccupation centrale dans toute réglementation européenne dédiée à l’IA. Le second consisterait à établir dans tous les pays européens des mécanismes de plainte et de recours accessibles et efficaces pour les personnes concernées en cas de violation des principes d’égalité et de non-discrimination ou d’autres droits fondamentaux lorsqu’une telle violation résulte de l’utilisation de systèmes d’IA.

Au même titre que d’autres nouvelles technologies, l’intelligence artificielle est un nouveau support mais le droit doit s’appliquer conformément à l’ensemble des  normes établies, ce qui se réfère à l’équivalence fonctionnelle.

Il est dès lors primordial, pour construire une égalité réellement effective, de respecter les droits fondamentaux tel que le principe de non-discrimination institué par la Charte des droits fondamentaux de l’Union européenne en son article 21.

 

Fiona ROZNER

 

Sources : 

Défenseur des droits, lutte contre les discriminations et promotion de l’égalité

Article sur le site internet de la CNIL : « Intelligence artificielle, de quoi parle-t-on ? », 5 avril 2022

Comment l’IA peut aider à réduire les inégalités, hello future

Article sur le site internet de la CNIL Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, 15 décembre 2017

« A la recherche de l’algorithme de Tinder : l’envers du décor de l’application de rencontre la plus populaire au monde », France Culture (Radio), dimanche 24 mars 2019

Le rapport de l’Agence des droits fondamentaux de l’UE sur les biais algorithmiques, observatoire IA

The Artificial Intelligence Act

Charte des droits fondamentaux de l’Union européenne (article 21)