BRÈVES DU 14 AU 21 JUIN

Haine en ligne : La censure censurée

Adoptée le 13 mai, la loi « Avia » contre la haine en ligne, activement soutenue par le gouvernement, qui devait entrer en application au 1er juillet, est inconstitutionnelle. Le Conseil constitutionnel a censuré les deux dispositifs clés du texte, infligeant un coup d’arrêt au projet de loi (décision n° 2020-801 DC du 18 juin 2020).

source : wikimedia commons

Visant à lutter contre la cyber-haine et la pédopornographie, le texte avait suscité de nombreuses réserves, notamment du Conseil national du numérique, de la Commission nationale consultative des droits de l’homme, ou encore de la Quadrature du Net qui défend les libertés individuelles dans le monde du numérique.

La décision des sages de ce 18 juin 2020 rappelle très pédagogiquement que la fin ne justifie pas tous les moyens. A ce titre, le Conseil constitutionnel réaffirme d’abord solennellement le principe de libre communication des pensées et des opinions (art. 11 de la DDHC) appliqué au numérique. Pour autant, le Conseil rappelle que la liberté d’expression n’est pas absolue et que le législateur est légitime à intervenir pour faire cesser les abus qui portent atteinte à l’ordre public et aux droits des tiers (art. 34 de la Constitution). Ainsi, si les juges ont sanctionné les modalités excessives de cette loi, ils n’en remettent pas en cause la légitimité de sa finalité. Le Conseil constitutionnel a en effet considéré que les atteintes portées à l’exercice de la liberté d’expression et de communication par ladite loi n’étaient ni nécessaires, ni adaptées et ni proportionnées à l’objectif poursuivi de lutte contre les abus.

Parmi les dispositions jugées excessives se trouve celle laissant aux plateformes la responsabilité de juger du caractère haineux ou sexuel d’un contenu simplement signalé et de le retirer ou de le rendre inaccessible dans un délai de 24 heures sous peine de sanction pénale. De même, est excessif le fait de conférer à la seule administration, et non au juge, l’appréciation du caractère terroriste ou pédopornographique d’un contenu. Concrètement, le Conseil constitutionnel insiste sur la privatisation du contrôle de la liberté d’expression et l’absence du juge dans les mécanismes prévus par la loi.

Par ailleurs, le gardien de la Constitution constate le caractère impraticable de la loi avec des délais trop courts et craignait que les plateformes « surcensurent » par excès de prudence. A ce titre, la loi « Avia » portait en son sein un risque d’atteintes généralisées à la liberté d’expression.

Seules quelques dispositions mineures du texte demeurent : la création d’un parquet spécialisé dans les messages de haine en ligne, la simplification du signalement d’un contenu, ou la création d’un « observatoire de la haine en ligne ».

Sources :

https://www.lemonde.fr/pixels/article/2020/06/18/le-conseil-constitutionnel-censure-la-disposition-phare-de-la-loi-avia-contre-la-haine-en-ligne_6043323_4408996.html


https://www.lefigaro.fr/actualite-france/le-conseil-constitutionnel-censure-la-loi-avia-contre-la-haine-en-ligne-20200618


https://www.mediapart.fr/journal/france/180620/loi-avia-contre-la-haine-en-ligne-la-gifle-du-conseil-constitutionnel

 

 

La controverse Health Data Hub

Avant toute chose, retour sur le Health Data Hub et les raisons de sa création. Le Health Data Hub est une plateforme française destinée à grouper les bases de données de santé existantes, à des fins de recherches médicales. Lancé l’an dernier, ce projet a pour but de mettre à disposition du secteur de la santé le potentiel de l’intelligence artificielle, en mettant à disposition des chercheurs les immenses volumes de données de santé nécessaires au développement de modèles IA.

En effet, l’utilisation de l’intelligence artificielle dans le domaine de la santé promet de mieux prédire les crises sanitaires, l’évolution des maladies, d’établir des diagnostics plus fiables et plus précis, ou même de découvrir de nouveaux médicaments. Cependant pour parvenir à ces résultats, l’accès aux données est indispensable pour pouvoir entrainer de telles IA.

Pour stocker ces données le Hub a choisi la solution Cloud Azure de Microsoft comme prestataire d’hébergement. Un choix critiqué car fait sans appel d’offre, notamment par l’ancien président de l’Institut des données de santé, Christian Babusiaux. Cette première inquiétude fut suivie par celles de la CNIL, formulées dans un avis du 20 avril 2020. La commission y pointe du doigt les conditions de stockage des données : localisation, modalité d’accès par l’hébergeur etc. La CNIL s’étonne également que le contrat stipule le transfert de données en dehors de l’Union européenne dans le cadre du fonctionnement de la plateforme. La CNIL met ici en garde contre un éventuel accès aux données par les autorités américaines à des fins de sécurité nationale comme la loi le permet.

Pour autant, la plate-forme vient de remporter ce 19 juin 2020 une nouvelle bataille vers la construction de cette base de données. En ce jour, le Conseil d’État a publié un arrêté élargissant les prérogatives du Hub pour mener des projets de recherche contre le Covid-19. Le Hub peut grâce à cet arrêté stocker de nouvelles catégories de données médicales.

C’est cette extension qui ces derniers jours a soulevé une nouvelle controverse. Quatorze associations experts et médecins ont attaqué cette décision et lui reproche les conditions d’hébergement précitées et la centralisation d’une très grande quantité de données et donc la centralisation des risques. La juge du Conseil d’Etat se prononçant en référé et non sur le fond  a écarté la quasi-totalité de leurs demandes : « Il n’apparaît pas que l’arrêté porte une atteinte grave et manifestement illégale au droit au respect de la vie privée et au droit à la protection des données personnelles », écrit-elle.

La directrice de la plate-forme, Stéphanie Combest, se veut cependant rassurante et assure que malgré ce démarrage anticipé la projet « atteint un niveau de sécurité que vous allez rarement retrouver dans des outils informatiques de mise à disposition des données de santé ».

Sources : 

https://www.ticpharma.com/story/1323/health-data-hub-la-cnil-s-inquiete-de-possibles-transferts-de-donnees-hors-de-l-union-europeenne.html

https://www.lemonde.fr/economie/article/2020/06/19/donnees-de-sante-le-controverse-health-data-hub-conforte-par-le-conseil-d-etat_6043509_3234.html

https://www.numerama.com/politique/631839-health-data-hub-questions-plateforme-donnees-sante-france.html


 

 

Les marques et noms de domaine du groupe Pronuptia aux enchères !

La marque Pronuptia a su s’imposer dès sa création, en tant que leader sur le marché des robes de mariées haut de gamme par le biais d’internet. En 2008, elle a étendu davantage son offre en intégrant toutes les étapes et tous les acteurs des cérémonies de mariage, se distinguant encore plus. De notoriété mondiale, elle fait partie des dernières marques françaises à s’imposer face à une concurrence accrue dans le domaine.

Pourtant, le 2 juillet prochain, l’étude Hiret & Nugues sera en charge de disperser l’ensemble des marques et noms de domaine du groupe puisque pas moins de dix lots sont mis aux enchères. A ce titre, un site internet a été ouvert – www.pronuptia-encheres.com – afin de couvrir l’événement en présentant de manière détaillée les lots, zones géographiques couvertes, les noms de domaines et les dépôts de la marque, afin de séduire et d’informer correctement les potentiels acquéreurs.

Ce phénomène de vente est de plus en plus fréquent. La valeur de la marque Pronuptia  s’estime entre 450 000 et 630 000 euros. Ce qui est certain, c’est que le futur acquéreur bénéficiera de la solide et prestigieuse réputation du groupe à l’échelle internationale.

Source :

Alexandra Flory : https://magazine.interencheres.com/materiels-professionnels/mariage-les-marques-et-noms-de-domaine-du-groupe-pronuptia-aux-encheres-a-laval/

 

 

Les biais de l’algorithme d’Instagram envers la nudité :

Une étude réalisée par le journal d’investigation Mediapart mets en lumière un potentiel biais de l’algorithme d’Instagram envers les personnes dénudées.

Avec le soutien financier de l’European Data Journalism Nework et Algorithm Watch, ainsi que l’aide de la statisticienne Kira Schacht et le développeur Edouard Richard, le journal a demandé à 26 volontaires d’installer une extension spéciale calculant le taux d’exposition de chaque post, ainsi que de suivre une sélection de 37 personnes issue de 12 pays différents.

Sur les 1737 publications contenant 2400 images, seulement 21% des images contenait des corps dénudés. Mais ces dernières représentaient plus de 30% de la masse totale des photos montrées aux utilisateurs.

source : Mediapart

Si Instagram a considéré que l’étude est « imparfaite » tant qu’elle ne serait pas effectuée à grande échelle (constat partagé par les responsables de celle-ci), la statisticienne Kira Schacht considère qu’elle est assez significative pour démontrer un véritable biais dans l’algorithme d’Instagram, qui semble, témoignage à l’appui, pousser les influenceurs à poster plus de photos dénudées sur Instagram. Un constat d’autant plus ironique que l’algorithme est particulièrement sévère avec la nudité et les images jugées « obscènes », qui est souvent l’objet de bannissement ou de déréférencement du compte Instagram.

Cela ne semble être que l’un des nombreux biais de l’application : D’après une étude de l’association de défense des personnes transgenres Salty, les personnes hors des normes de beauté, comme les handicapés, les obèses, les personnes de couleur ou LGBT+ sont plus souvent sujette aux sanctions de l’algorithme, ainsi qu’aux « faux-positifs » (image jugée obscène par l’algorithme alors qu’elle ne l’est pas).

Si cette nouvelle semble démontrer encore une fois les dangers de la discrimination algorithmique, elle montre aussi, selon le journal, le manque de connaissance des influenceurs de leur droits. En effet, l’article 22 du RGPD prévoit qu’aucune décision ayant des effets « significatifs » sur la vie d’un individu ne peut être faite de façon automatisée. Si l’avocate Ala Krinickyté considère que les biais algorithmiques d’Instagram pourraient être sujet à un recours devant la CNIL, elle n’a jamais eu connaissance d’influenceurs ou entrepreneurs utilisant la plateforme ayant fait la demande.

Sources :

[1] Judith Duportail et Nicolas Kayser-Bril (avec Kira Schacht et Édouard Richard), 15 Juin 2020, « Sur Instagram, la prime secrète à la nudité : se déshabiller pour gagner de l’audience », Mediapart

[2] Kira Schacht, 22 mai 2020, « Undress or fail: Does Instagram favour posts that show more skin? »

[3] « Exclusive: An Investigation into Algorithmic Bias in Content Policing on Instagram », Salty

 

 

Merci à Marine Gentil pour sa contribution !

MasterIPIT