L’intelligence artificielle, un nouveau moyen de traiter les revendications des citoyens ?

 

En réaction à la crise des « Gilets jaunes », le Gouvernement, sur l’initiative du Président de la République, a engagé un grand débat national sur quatre enjeux de la nation que sont la fiscalité et les dépenses publiques, l’organisation de l’État et les services publics, la transition écologique, la démocratie et la citoyenneté. Le but étant d’avoir un dialogue avec les citoyens.

 

Nous avons donc pu, entre le 15 janvier et le 18 mars 2019, contribuer à ce débat. Les contributions seront ensuite analysées, synthétisées. Les résultats de l’analyse permettront de structurer l’action du gouvernement et du Parlement, mais aussi les positions de la France au niveau européen et international. Selon la lettre du président de la République aux français [1], un compte rendu du Président nous sera communiqué courant avril.

 

Les citoyens ont donc participé au grand débat par plusieurs moyens, sur le site internet du grand débat[2], en envoyant un courrier à la mission du grand débat, en écrivant dans les cahiers citoyens mis à disposition dans les mairies, mais aussi en prenant part aux réunions d’initiative locale.

 

Nous entrons désormais dans la phase de synthèse des contributions. Avec plus de 1,9 millions de contributions au total, le Gouvernement s’est tourné vers l’intelligence artificielle pour traiter une partie des contributions. Deux modes de traitement seront utilisés.

 

Les contributions recueillies dans les cahiers citoyens, les comptes rendus de réunions et les courriers seront numérisés par la Bibliothèque Nationale de France puis analysés par Roland Berger[3], associé à Cognito et Bluenove, un cabinet de conseil en stratégie spécialisé dans le traitement de données. Cette analyse permettra de faire ressortir les différentes propositions faites par les contributeurs. Pour ce faire, il faudra recourir à la lexicométrie, cette technologie capable de faire des associations avec des mots. L’algorithme va ainsi pouvoir classer les différentes contributions en fonction des mots et du sens.

 

Les 1,6 millions de contributions recueillies sur le site internet feront l’objet d’une analyse par la société Opinion Way. Cet institut va distinguer les réponses données aux questions fermées et les propositions ouvertes formulées par les contributeurs. S’agissant des questions fermées sur les quatre grands thèmes choisis par le gouvernement, elles feront l’objet d’une analyse par une vingtaine de personnes qui auront pour tâche de compter le nombre d’occurrences de chacune des réponses et en tirer un pourcentage. Pour les propositions ouvertes, c’est un algorithme d’analyse textuelle en masse édité par la société française Qwam[4] qui se chargera de les synthétiser. L’intelligence artificielle va classer les contributions dans une quinzaine de grandes catégories, charge à l’IA de reconnaître ce qui relève de la critique, de l’avis favorable ou de la simple proposition.

 

L’utilisation de l’intelligence artificielle n’étant pas à l’abri de critiques, notamment quant à son impartialité, Opinion Way anticipe et affirme que le protocole méthodologique qui sera appliqué comprend une intervention humaine systématique pour contrôler la cohérence des résultats et s’assurer de la pertinence des données produites et de la bonne compréhension du sens des propos des participants au débat. De plus, afin de garantir l’impartialité et l’indépendance des synthèses, un collège de cinq garants a été nommé. Ce collège aura la responsabilité de valider les résultats de la synthèse.

 

Malgré ces garanties et ces affirmations, l’analyse peut être biaisée et des erreurs pourraient avoir lieu. Ceci est notamment dû au fait que la machine ne fait pas preuve d’intelligibilité. En effet, l’intelligence artificielle combine le traitement automatique du langage et le « deep learning », cet apprentissage qui permet à la machine d’enrichir ses connaissances par l’expérience. Le logiciel va identifier, parmi les propositions des internautes, les notions qu’il connaît, enrichies de celles qui lui seront ajoutées par Opinion Way. Ensuite, la machine associera chaque proposition à une catégorie, puis à une sous-catégorie et les propositions seront finalement transformées en pourcentage. Le sens de la proposition faite restera donc incompris par l’IA, ce qui peut donner lieu à des contresens ou des confusions.

 

L’autre risque qui biaiserait les résultats est l’hypothèse dans laquelle les citoyens se réuniraient pour faire la même proposition. Cette stratégie a notamment été repérée quant à la proposition critiquant la limitation de vitesse à 80 km/h. Les garants ont affirmé que ces propositions « répétées » seront écartées.

 

En réaction à ces problèmes, des analyses indépendantes ont vu le jour. Cette démarche est encouragée par le gouvernement et par l’institut Opinion Way. En effet, Frédéric Micheau, directeur du département opinion et politique d’Opinion Way a déclaré dans une interview à Libération[5] le 15 février, que l’institut travail en OpenData (Données ouverte) « [pour] que tout le monde puisse examiner notre code et notre méthodologie ». Ainsi, des scientifiques, des associations, de simples citoyens ont pris l’initiative d’analyser eux-mêmes les résultats de la collecte des contributions au grand débat national. Par exemple, une organisation regroupant plusieurs laboratoires scientifiques a créé « L’observatoire des débats »[6]. Leur démarche consiste à constituer un miroir indépendant des réunions publiques, des débats sur internet et les réseaux sociaux. Une autre organisation a créé « La grande annotation »[7]. Cette dernière propose aux volontaires d’analyser les contributions en soulignant les limites de l’utilisation d’une intelligence artificielle, il est notamment possible de lire sur la page d’accueil de leur site internet : « Plus de 160 000 personnes ont rédigé des réponses aux questions de granddebat.fr Mais aucune technologie n’est aujourd’hui capable de comprendre leur sens. Rejoignez 1 053 humains pour nous aider à le faire en les lisant ! » .

 

Une question reste en suspens : le traitement des données par l’intelligence artificielle assurera-t-elle impartialité et transparence, l’algorithme ne pouvant restituer des résultats qu’en fonction de sa programmation initiale ?

 

Hassina BENNAI

 

[1] https://granddebat.fr

[2] https://granddebat.fr

[3] https://www.rolandberger.com/fr/

[4] http://www.qwamci.com/

[5] https://www.liberation.fr/france/2019/02/15/grand-debat-des-algorithmes-et-de-l-ia-pour-trier-classer-et-sous-classer-les-idees_1709678

[6] https://observdebats.hypotheses.org

[7] https://grandeannotation.fr/

MasterIPIT