Au cours des derniers mois, on constate une recrudescence des débats tournant autour de l’intelligence artificielle et des « Chatbots ». ChatGPT, GPT-2, GPT-3, Harvey, Eliza… ces dernières innovations deviennent incontournables et sont amenées à rayonner considérablement dans nos usages quotidiens. Leur efficience étant remarquable, nombreux sont aussi fascinés que inquiets, ces dernières technologies risquant de provoquer de grands bouleversements économiques au sein de notre société.
Le Chatbot GPT-3.5 (Generative Pre-trained Transformer ou, en français, Transformateur Générique Pré-entrainé), accessible à tous depuis le 30 novembre 2022, est l’outil le plus en vogue actuellement. Développé par OpenAi, société américaine créée par Elon Musk et Sam Altman dont l’objet social est le développement des technologies de l’intelligence artificielle, ce modèle de langage naturel est un agent conversationnel qui dialogue avec un utilisateur. En ayant recours à l’apprentissage automatique, il génère des réponses cohérentes et pertinentes, à partir d’entrées de texte de l’utilisateur, imitant ainsi la conversation humaine.
Face à un manque de législation nationale et européenne sur l’usage de ce nouvel outil révolutionnaire, des incertitudes demeurent. Avant de s’atteler aux enjeux juridiques et éthiques posés par cette intelligence artificielle, il convient de préciser ses modes de conception, mais également de comprendre quelques limites de ce système.
I. Comment le ChatGPT est-il conçu ?
Conçu à partir d’une architecture de neurones de 175 milliards de paramètres appelée « Transformer », modèle de Deep Learning qui utilise des couches de traitement, le ChatGPT saisit les relations entre tous les mots d’une phrase, permettant ainsi une compréhension globale du texte. Grâce à la technique d’apprentissage, dite « apprentissage par transfert » (transfer learning), l’outil assimile des connaissances qui lui sont transférées lors d’entrainements, portant sur une immense quantité de données textuelles qui sont collectées principalement du Web : on dit qu’il est pré-entrainé. De fait, en s’appuyant sur plus de 300 000 milliards de mots, il développe une compréhension approfondie de la structure linguistique, des concepts clés et des associations entre les mots. Ces connaissances, il les adapte à des domaines de tâches spécifiques, telles que la classification de texte ou la réponse à des questions précises grâce au travail des annotateurs humains qui guident le modèle ; c’est ce système de « fine-tuning » qui lui permet ainsi d’améliorer ses performances dans un domaine en particulier. Enfin, le Chatbot GPT est intégré à une interface utilisateur, comme un site web ou une application de messagerie. Partant, les utilisateurs peuvent saisir du texte et recevoir des réponses générées par le modèle de langage.
Basé sur l’intelligence artificielle, cet outil est ainsi conçu par l’humain pour répondre à n’importe quelle demande. En simulant le langage naturel, il peut être utilisé pour un large éventail d’applications pratiques : la génération de questions-réponses en rapport avec un sujet spécifique, la traduction automatique de langues, l’émission de textes littéraires tels que des poèmes ou des essais universitaires, le développement de codes informatiques et même des expressions humoristiques. Ainsi, plus qu’un agent conversationnel, il s’apparente à un véritable moteur de recherche.
Néanmoins, ces logiciels ne sont pas parfaits, et s’y fier à 100% serait une erreur.
II. Regard sur la fiabilité des réponses du chatbot
Bien que ChatGPT et d’autres modèles de langage aient la capacité de se montrer très utiles dans divers domaines, ceux-ci ne sont pas entièrement fiables puisqu’ils présentent un certain nombre de lacunes. En effet, je les ai constatées moi-même en me rendant sur le site chat.openai.com, et en posant des questions à ChatGPT-3.5, la dernière version ChatGPT-4 lancée en février étant dorénavant réservée aux utilisateurs ayant souscrit à l’abonnement payant du « ChatGPT Plus ».
Tout d’abord, concernant l’âge des informations apportées par le chatbot : ce dernier étant créé en 2021, sa base de données et donc toutes ses connaissances se limitent aux événements qui précèdent l’année 2021. Ceci constitue ainsi sa plus grande limite, le chatbot ne pouvant apporter aucune réponse sur les événements récents. Ce dernier affirme toutefois que « mes réponses sont régulièrement mises à jour avec les dernières informations disponibles à partir de sources fiables », et ajoute qu’il fera de son mieux pour fournir des réponses précises et d’actualité. A contrario, alors que la Coupe du Monde est l’événement sportif phare de 2022 connu de tous et que nous pourrions donc nous attendre à ce que le chatbot soit à jour concernant cette information, la photo ci-dessous nous prouve le contraire.
En outre, concernant l’exactitude du contenu des informations apportées par le chatbot : sont-elles réellement fiables ?
Alors que ChatGPT utilise un ton plutôt convaincant dans ses réponses, il est nécessaire de s’en méfier. En effet, bien que celles-ci puissent sembler correctes et d’apparence réalistes, notamment par l’utilisation d’un vocabulaire assez riche, sur le plan factuel les informations apportées peuvent être tout à fait fausses : c’est le phénomène appelé « hallucination ». C’est ce dont ont fait état plusieurs entreprises proposant des services de lutte contre les fake news, telles que Newsguard qui a révélé cent récits mensongers au chatbot et, dans 80 % des cas, ce dernier émettait des affirmations éloquentes, fausses et trompeuses sur des sujets importants de l’actualité, notamment le COVID-19, l’Ukraine ou encore les fusillades dans les écoles américaines. Cela est notamment dû à la grande diversité des sources de l’IA : ses bases de données proviennent de milliards de sites Web, ceux-ci pouvant comprendre d’innombrables informations non fiables, ce qui mène au risque accru de la désinformation et des « fake news », une difficulté par ailleurs déjà rencontrée avec les réseaux sociaux. Le PDG d’OpenAI, Sam Altman, bien que fier de sa technologie, a partagé ses craintes à ce sujet dans une interview avec la chaîne ABC News : « Je suis particulièrement inquiet que ces modèles puissent être utilisés pour de la désinformation à grande échelle ». En somme, il est conseillé de toujours vérifier la véracité des informations générées par l’IA, en particulier lorsque ces dernières portent sur des sujets spécifiques, surtout que le chatbot n’est pas non plus en mesure de disserter de façon très pointilleuse.
Par ailleurs, un autre point doit être relevé concernant l’éthique du chatbot. Tandis que certains préjugés et stéréotypes peuvent se remarquer dans les réponses générées par l’agent conversationnel, on constate l’absence de propos haineux, racistes ou encore sexistes, que l’on retrouve pourtant en masse sur Internet. Ce travail de filtre peut être entièrement attribué aux centaines de salariés sous-payés au Kenya (2$ de l’heure), dits «les travailleurs du clic », qui ont été engagés par une société spécialisée dans l’éthique de l’intelligence artificielle, partenaire d’OpenAI. Selon une enquête du Time, leur mission consistait à lire et étiqueter pendant neuf heures d’affilée entre 150 et 250 textes à caractère toxique, décrivant la torture, les viols… Ainsi, on remarque que derrière cette soi-disant automatisation, un travail humain plus que pénible y est dissimulé.
Au-delà de certaines limites démontrées ici, le chatbot, connaissant globalement un grand succès auprès du public international, est amené à prendre de la valeur autant pour les particuliers que pour les entreprises qui souhaitent s’en emparer, comme en atteste l’investissement de Microsoft de près de dix milliards de dollars dans la société OpenAI. Compte tenu de son apparition toute récente, aucune législation ou jurisprudence n’a pu encore permettre la réglementation de son usage. Il convient alors de préciser les enjeux juridiques mais également éthiques de ce dernier, auxquels il sera plus que nécessaire de répondre dans un futur proche.
III. Des enjeux sociétaux soulevés par l’IA
Sur le respect de la vie privée et des données personnelles
La FAQ de ChatGPT sur le site d’open.ai.com déclare respecter la vie privée de ses utilisateurs et s’engage à garder en sécurité toute information obtenue de leur part, affirmant également être conforme à la loi californienne sur la confidentialité des données, le « California privacy rights ». Pour l’heure, nous ignorons si ChatGPT est réellement conforme au Règlement général sur la protection des données (RGPD) ainsi qu’à la loi Informatique et libertés, les deux textes respectivement européen et français garantissant la protection des données personnelles, empêchant donc toute atteinte à la vie privée des internautes. Mais nous pouvons d’ores et déjà constater que, l’IA ayant collecté une grande quantité de données sur le Web, dont probablement sur les réseaux sociaux, une grande partie de ces dernières est possiblement à caractère personnel. Partant, l’intelligence artificielle serait alimentée massivement par nos données personnelles. De même, les questions posées au chatbot peuvent contenir des informations sensibles, notamment lors de l’usage professionnel fait par les entreprises. Sur ce point, alors que ChatGPT garde toutes les traces des échanges précédents entre lui et l’utilisateur par souci d’amélioration du logiciel, la société OpenAI ne donne aucun moyen aux utilisateurs de vérifier si la société stocke leurs informations personnelles ou de demander à les voir supprimées, ce qui est pourtant un droit garanti par le RGPD. À ce titre, plusieurs plaintes ont été récemment déposées auprès de notre organe français, la CNIL. La première plainte a été déposée par une avocate qui dénonce l’absence de « conditions générales d’utilisation » à accepter et d' »une quelconque politique de confidentialité ». La seconde est initiée par un développeur investi dans la protection des données personnelles qui fait également valoir la violation du RGPD, le chatbot ayant apparemment dévoilé des informations personnelles fausses le concernant. Et ce n’est pas qu’en France qu’a lieu une émergence de sérieux doutes sur cette question : en témoigne la déclaration de la CNIL italienne qui prévoit l’interdiction de l’usage de ChatGPT, dénonçant un certain nombre de manquements à la réglementation européenne. Sous la menace d’une amende, la société OpenAI a donc bloqué l’accès pour les internautes italiens. Dans la même lignée, le Commissariat à la protection de la vie privée du Canada a annoncé qu’il ouvrait une enquête sur l’entreprise OpenAI, à la suite d’une plainte selon laquelle des renseignements personnels ont été recueillis, utilisés et communiqués sans consentement.
Ainsi, en vertu du droit fondamental du respect à la vie privée des individus, toutes ces incertitudes ont intérêt à être mises au clair au plus vite…
Sur les droits de propriété intellectuelle
Dans un contexte où ChatGPT est aujourd’hui amplement utilisé à des fins pédagogiques comme professionnelles, avec son « aide » à la rédaction d’articles et de travaux universitaires, vient tout de suite la question de la protection du contenu généré par une IA, garantie par les droits de propriété intellectuelle. Là encore, l’incertitude règne. Les conditions générales d’openai.com prévoient que l’ensemble des données d’entrée et de sortie sont cédées à l’utilisateur, dans les limites permises par les législations applicables. Or, le droit français d’auteur protège les créations intellectuelles originales, empreintes de la personnalité de leur auteur qui, lui, effectue des choix libres et créatifs ; cette qualité d’auteur profitant uniquement aux personnes physiques, et donc humaines. Certes, ChatGPT a été créé et développé par des humains. Toutefois, ce chatbot constitue un logiciel informatique dépourvu de personnalité humaine qui ne fait que générer des réponses automatiques. À défaut d’auteur humain, ses contenus ne peuvent pas être l’expression d’une personne identifiable. Il en ressort que, théoriquement, le chatbot ne peut être qualifié d’auteur et donc bénéficier de la protection du droit d’auteur sur ses textes.
Si ChatGPT ne peut donc être considéré comme l’auteur de son contenu, cela n’implique pas nécessairement que cet autorat ne puisse pas être attribué à une personne. Ainsi, dans le cas où l’on considère que le droit d’auteur peut protéger les contenus de ChatGPT, la question du titulaire de ces droits se pose : l’auteur est-il le concepteur ou l’utilisateur de l’IA ? Alors que plusieurs parties pourraient revendiquer cette qualité, le Conseil supérieur de la propriété littéraire et artistique (CSPLA) a considéré que l’attribution des éventuels droits reviendrait au concepteur de l’IA : selon lui, cette solution serait en effet « la plus respectueuse du droit d’auteur ». Nonobstant cet avis, le doute plane toujours sur cette question, et à l’heure actuelle le contenu généré n’est pas protégé.
De cette absence de protection découle également la question de l’usage déloyal de l’IA et du plagiat. Puisque le contenu n’est la propriété d’aucune personne, tout un chacun devrait pouvoir l’utiliser à sa guise, sans pour autant qu’il s’agisse d’une contrefaçon. Pourtant, se prétendre auteur d’un texte rédigé par l’IA ne semble pas loyal, surtout dans le domaine de l’enseignement où l’élève se voit noté sur ses propres réflexions. C’est pourquoi, alors que de nombreux étudiants ont recours à ChatGPT pour leurs travaux universitaires, plusieurs universités telles que Sciences Po ou encore les écoles publiques de New-York ont annoncé l’interdiction de l’accès à ce chatbot.
Éventuellement, afin de pallier ces flous juridiques, pourrait être envisagée la création d’un droit sui generis qui viserait à protéger les contenus créés par les Chatbots, et plus globalement par tout outil basé sur l’intelligence artificielle.
ChatGPT : le nouvel outil de prédilection pour les cybercriminels ?
Et si le robot conversationnel était aussi une révolution pour les cybercriminels ? Sans doute que oui, puisque, comme l’a souligné Nicolas Arpagian, pionnier dans la cybersécurité, « à chaque fois qu’il y a une innovation technologique majeure, les premiers à s’en emparer sont les criminels ».
En effet, le ChatGPT peut s’avérer très utile pour les cybercriminels, devenant ainsi un outil de cyber arnaque. Prenons l’exemple de la pratique d’hameçonnage (ou fishing), qui consiste à amener les cibles à cliquer sur un lien frauduleux ou télécharger une pièce jointe qui contient un virus, en se faisant passer pour un organisme reconnu : le ChatGPT peut se montrer efficace en rendant plus légitime le texte, dès lors qu’il est capable de le rédiger dans n’importe quelle langue, sans faute d’orthographe et/ou de grammaire, se dotant d’une qualité professionnelle à l’image de l’organisme usurpé. Toutefois, le chatbot, étant doté vraisemblablement d’une certaine éthique, ne le fait pas sur demande : pour qu’il génère ce type de contenu illégal, il faut lui demander de façon détournée en lui donnant un contexte et un rôle à prendre.
En outre, une autre pratique illégale peut être réalisée avec l’IA générative : le rançongiciel. En exploitant ChatGPT, les hackers aguerris sont tout à fait capables de créer un logiciel malveillant permettant de pénétrer au sein d’un site informatique, en donnant simplement des bribes de code au chatbot et en lui demandant de trouver les failles de celui-ci. Le hacking récent par un développeur assisté de cette IA le démontre parfaitement : le chatbot a réussi à générer le code malveillant trouvé par un chercheur pour exploiter une faille Facebook valant 42 000 dollars. L’utilisation malintentionnée de ChatGPT peut donc conduire à des conséquences désastreuses. C’est par ailleurs à ce sujet que l’agence européenne de police criminelle, Europol, a émis ses inquiétudes le 27 mars dernier et a averti d’« un avenir sombre où la technologie sera utilisée pour commettre des crimes plus sophistiqués et dangereux ».
Enfin, le chatbot peut être utilisé à des fins de désinformation, qui constitue également une réelle aubaine pour les cybercriminels, comme évoqué plus haut, mais aussi à des fins de propagande.
Ainsi, bien que les conditions générales de ChatGPT prévoient l’interdiction d’un usage illégal ou malveillant de l’outil, et avec notamment la tentative de mise en place de garde-fous par OpenAI, les possibilités de contournement sont largement présentes. Il en ressort qu’un contrôle accru du logiciel et un dispositif législatif, pour s’assurer que l’usage qui en est fait soit conforme à la loi pénale, doivent impérativement voir le jour.
Ces enjeux, d’ordre juridique comme éthique, nécessitent d’être résolus afin que les technologies semblables à ChatGPT puissent se développer sans pour autant présenter une menace à nos droits fondamentaux. Du fait de toutes ces incertitudes et potentiels dangers posés par cette IA, 1000 grandes personnalités du monde de la technologie connues internationalement (telles que Elon Musk ou Yoshua Bengio) ont considéré, dans leur lettre ouverte, que « les systèmes d’IA pouvant rivaliser avec l’intelligence humaine peuvent poser un grand risque pour l’humanité ». Ils demandent alors un moratoire de six mois sur le développement de l’intelligence artificielle.
Nota bene : cet article n’a pas été rédigé par ChatGPT ☺
Louise FOUQUET-CRISTOFINI
Sources :
Podcast France inter de « Chat gpt : les nouveaux enjeux de l’IA »
Podcast R2PI : « Intelligence artificielle et propriété intellectuelle »
Youtube : interview Sam Altman sur ABC News
https://chat.openai.com/chat
https://www.tlmr-avocats.com/la-propriete-des-contenus-chatgpt/
https://etudestech.com/decryptage/openai-chat-gpt-intelligence-artificielle/
https://www.oracle.com/fr/artificial-intelligence/what-is-ai/
https://chatgpt-info.fr/comment-chatgpt-comprend-langage-naturel/
https://blent.ai/transformers-deep-learning/
https://www.sales-hacking.com/post/limites-de-chatgpt
https://www.newsguardtech.com/misinformation-monitor/jan-2023/
https://time.com/6247678/openai-chatgpt-kenya-workers/