Chantiers modération des contenus et gouvernance responsable des libertés numériques

Post-doctorat de Valentine Crosset

Dans le cadre de l’axe 4  Gouvernance de l’innovation et des technologies responsables, la Chaire Good in Tech initie un projet de recherche-expérimentation dont l’objet porte sur la modération des contenus à l’heure des plateformes numériques.

Sous bien des rapports, nous vivons aujourd’hui une période de turbulente transformation structurelle de l’espace numérique. Depuis quelques années, les plateformes de médias sociaux sont au cœur d’un important débat sur la modération des contenus. De nombreuses préoccupations ont été soulevées concernant la diffusion de discours haineux, de propagande jihadiste et de fausses informations sur les plateformes numériques. Dans ce contexte, la régulation des géants du web a souvent été présentée comme une réponse indispensable pour garantir l'équilibre démocratique et la stabilité géopolitique au sein de nos sociétés. Face à la pression des pouvoirs publics et de la société civile, les plateformes ont été contraintes d’élargir leurs règlements et politiques, d’agrandir leur équipe de modération, de sous-traiter les opérations de modération ainsi que d’ajouter de nouvelles technologies de détection algorithmique basées sur l’Intelligence artificielle (IA). Malgré ce renforcement de la modération, il n’en demeure pas moins que le débat public reste particulièrement clivé, entre ceux qui critiquent les plateformes pour leur inaction et leur passivité et ceux qui y voient une véritable atteinte à la liberté d’expression.

Ce tournant dans la gouvernance de la liberté d’expression invite à interroger le statut de la régulation « privée » des contenus numériques. Cela pose nécessairement la question de savoir « Quel internet voulons-nous » ? Comment assurer une gouvernance responsable des grands acteurs numériques qui permettrait d’articuler liberté d’expression et protection des publics ? Considérant que le problème public des libertés numériques est une entreprise collective de production de connaissance, ce projet de recherche propose un cadre d’analyse permettant d’examiner ces questions à la fois du point de vue des régulateurs et des acteurs publics, mais aussi des internautes. Les connaissances empiriques sur les perceptions des publics en ce qui concerne le statut de la régulation des contenus et des plateformes sont encore anecdotique et nécessitent des analyses supplémentaires, compte tenu du débat actuel et la multiplication des lois en matière de modération des contenus.

Plutôt que de limiter la réflexion critique au fait de savoir qui doit réguler les contenus et les plateformes numériques et comment, le projet souhaite explorer la gouvernance « en train »de se faire: ses frontières et complexités, ses controverses et débats, ses pratiques et attentes normatives, en prenant en compte l’expérience et le point de vue des utilisateurs. En poursuivant ce type de questionnement, le projet cherchera à identifier et explorer des formes possibles de régulation démocratique de contenus sur internet, pour que celui-ci reste un espace de débat, d’engagement et de liberté.

La recherche se déroulera en trois phases :

     1. Cartographie des politiques de modération

Un premier niveau du projet consistera à cartographier et synthétiser les différentes politiques de modération des contenus et de régulation des plateformes. Une attention particulière sera accordée aux différentes procédures mises en œuvre en fonction de la nature des contenus publiés (terrorisme, nudité, discours de haine, désinformation). Il s'agit d'une étape préliminaire essentielle pour comprendre le paysage actuel de la modération de contenu et de la régulation des plateformes. L’intérêt de cet objectif est d’explorer les structures institutionnelles, politiques et juridiques sous-jacentes aux contenus en ligne et d’en dresser une analyse critique.

     2. Enquête numérique auprès des utilisateurs

Nous effectuerons dans un premier temps une enquête sur les signalements des utilisateurs. Nous nous intéresserons aux activités routinières de signalements en construisant un répertoire de contenus problématiques exprimés et signalés par les internautes. Ce premier versant de l’enquête nous permettra d’observer comment les internautes mettent en œuvre les limites de ce qu’ils souhaitent voir ou éviter sur les réseaux sociaux. Dans un deuxième temps, nous explorerons les plaintes formulées par les utilisateurs à l’égard des opérations de modération opérée par les plateformes numériques. Notre base de données sera constituée a priori de contenus publiés sur les réseaux sociaux. Il nous permettra de dresser l’état de la critique sociale sur les enjeux de liberté d’expression et de modération et de la poser comme point de départ d’une politisation du problème.

     3. Expérimentation collective de la modération


Le troisième versant de l’enquête sera de procéder à une enquête exploratoire par entrevues et ateliers participatifs. Cette enquête exploratoire sera menée avec cinq publics cibles: des communautés d’internautes identifiés à partir de notre enquête en ligne ; des associations de défenses des libertés ; des autorités administratives et organismes publics ; des acteurs du numérique ; des avocats et magistrats spécialisés. Les publics seront amenés à expérimenter des contenus problématiques, à débattre de cas qui ont été modérés par les plateformes et à imaginer des dispositifs de modération. Ces expérimentations auront deux visées principales. D’une part, il s’agira d’alimenter l’enquête numérique, en recueillant les valeurs et attentes normatives de publics concernés, d’autre part, elles permettront de co-construire une gouvernance responsable des libertés numériques.

Bio

Valentine Crosset est chercheure postdoctoral au médialab et financée par le Chaire Good In Tech depuis novembre 2020. Ses recherches actuelles traitent de la modération des contenus sur les plateformes numériques, en s’intéressant plus particulièrement aux controverses et aux attentes normatives des internautes.

Valentine Crosset est diplômée d’un doctorat en criminologie de l’Université de Montréal. Sa thèse a porté sur la visibilité en ligne de groupes radicaux, au croisement des STS, de la sociologie du militantisme et de la sociologie de la visibilité. Durant ses études doctorales, elle  a travaillé sur différents projets touchant au numérique. Elle a notamment travaillé au sein du Centre International de Criminologie Comparée sur  un projet de recherche portant sur l’extrême droite et le numérique (2014-2019), mais aussi sur le projet « Autonomisation des acteurs judiciaires par la cyberjustice » (AJC) mis en place par le Laboratoire de cyberjustice de l’Université de Montréal (2019-2020). Enfin, elle a travaillé au sein de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (2018-2019). Elle a récemment publié des articles dans la revue Critique Internationale et New Media & Society.

Impact des technologies responsables en intelligence artificielle
Doctorat de Jean-Marie John-Mathews

Dans le cadre de l’axe 2  Développement des technologies responsables, la Chaire Good in Tech initie un projet de recherche dont l’objet porte sur le développement de technologies responsables en intelligence artificielle.

Le développement mondial des usages et des services numériques depuis plus d’une vingtaine d’années a entraîné une production massive de données numériques par les individus, que ce soit sur des sites web, des blogs, des forums, des réseaux sociaux, ou encore via des objets connectés présents sur soi (smartphone, wearables), à la maison (smarthome) ou dans la ville (smartcity). Dans ce contexte, la collecte et l’exploitation de ces données sont devenues des enjeux majeurs à la fois pour les chercheurs, pour les entreprises comme pour les Etats.  Les algorithmes et les méthodes d’apprentissage supervisées ou non supervisées, au travers du Machine learning et du Deep learning, sont aujourd’hui dans beaucoup de services digitaux, que ce soient les moteurs de recherche, les réseaux sociaux, les systèmes de recommandations, la publicité en ligne, ou encore les chatbots ou les robots. Ainsi les algorithmes constituent des intermédiaires de plus en plus présents dans les interactions entre les entreprises et les consommateurs, et entre les individus eux-mêmes. Plus globalement ils interagissent aussi dans la compréhension de l’environnement économique, politique ou encore social. Ce phénomène est source d’inquiétudes et de débats, ce qui a donné lieu ces dernières années à la production de plusieurs rapports et missions gouvernementaux et au développement dans plusieurs pays d’un courant de recherche interdisciplinaire sur la nécessité de développer des algorithmiques éthiques by design.

Cette thèse a pour premier but de clarifier les concepts autour de l’éthique des algorithmes en les inscrivant dans leur contexte d’utilisation et leur contexte d’élaboration technique. Ensuite, il s'agit d’évaluer l’impact des méthodes de conception éthique by design des algorithmes sur la société. Des enjeux sur les outils techniques de certification de critères éthiques seront explorés, à l’état de recherche encore actuellement. Cette évaluation des impacts nous appelle à penser un modèle de gouvernance pour les entreprises ainsi qu’un modèle de régulation pour les pouvoirs publics afin de répondre aux différents enjeux éthiques.


Bio

Jean-Marie John-Mathews est data scientist et doctorant à IMTBS en éthique algorithmique sur les impacts des algorithmes dits « éthiques by design » en intelligence artificielle. Il est également enseignant à Sciences Po en méthodes quantitatives pour les sciences sociales et à l’université PSL en mathématiques et probabilités. Par le passé, il a travaillé en tant que data scientist dans le conseil puis l’industrie après une formation en mathématiques, économie puis philosophie.

Impact of Artificial Intelligence on Society
PhD from Ahmad Haidar

Meanwhile, there is an acceleration in developing new technologies that can learn from themselves and provide more and more relevant results, i.e., Artificial Intelligence (AI). With this increasing competence, machine learning is increasingly being employed in real-world socio-technical contexts of high consequence. It’s not a secret that people and machines are starting to be more partners in various aspects of life, starting by using Google Maps, Siri to self-driving cars. Some can’t even imagine life without these technologies; businesses read this mentality as an increase in demand for innovative technologies by society, so new lines to maximize their profit. For this reason, we will see an increase in investment vehicles focused on ethical tech such as electric cars, besides adapting business models which are hyper-compliant with GDPR.

This AI era could help solve significant problems such as medicine and healthcare, energy usage, transportation, and other domains. Yet, this advancement associate harmful consequences on society using an intelligent algorithm such as manipulating the voting system of a presidential election, discrimination –in different fields such as hiring process, data abuse, cybersecurity,  privacy violation, job losses, etc.
This intersection of machine learning with society has fueled this dissertation to raise questions and concerns about the risks and advantages of Machine Learning. A small segment of research effort is devoted to measuring this relation in all its prospects. Hence, this dissertation will study the various aspects of responsible machine learning that are more engaged with society by creating an econometric model. These measures concluded from four major declarations and regulations to adopt the consequences of this advancement in technologies; Montreal declaration for a Responsible Development of Artificial Intelligence (2018). EU High-Level Expert Group On Artificial Intelligence (2018).  Recommendation of the Council on OECD Legal Instruments Artificial Intelligence (2019). UNESCO Recommendation on the Ethics of Artificial Intelligence, Open Dialogue on AI Ethics (ODAI) (2020). These guidelines and recommendations aim to promote and foster Trustworthy AI. The framework of Responsible AI has five main principles, and each has several dimensions. First, Respect for Autonomy includes human agency and solidarity. Second, the Prevention of Harm comprises privacy and data governance, societal and environmental well-being, robustness, and prudence. Third, Fairness covers accountability, equity, diversity inclusion, and environmental well-being. Fourth, Explicability also involves accountability besides transparency, interoperability, and data governance. The last principle is Democratic Participation. These principles attached to their actions will be considered input data to measure its influence on society and individuals and tech companies’ well-being.  

The research will take place in three phases:

1. Mapping of moderation policies
The first level of the dissertation will consist of a massive overlook on previous studies, theoretical and practical, the impact of artificial intelligence on society. A literature review describes the negative effect of machine learning and the reasons behind the regulations made for these “superpower” algorithms. Particular attention will be paid to various international regulators, Montreal Declaration, EU High-Level Expert Group On Artificial Intelligence. OECD Legal Instruments Artificial Intelligence. UNESCO Recommendation on the Ethics of Artificial Intelligence, Open Dialogue on AI Ethics (ODAI). It is an essential preliminary step in understanding the current landscape of net societal contribution to AI for constructing an econometric model.

2. Methodology and data modeling
The primary objective of this dissertation is to understand the impact of AI on society better. In contrast to quantitative research, which focuses on measuring and validation, qualitative research helps address these exploratory questions by allowing researchers to address “why” and “how” questions. As a result, qualitative research is appropriate for addressing the objectives of this study. This study employs a qualitative approach based on Grounded Theory involving semi-structured and digital interviews with experts from the AI field in industries interested in this topic and academia. As such, we will deal with primary and recent data to create our model.

3. Experimentation with moderation
The third aspect is to make several experiments and run the model in various startup firms interested in responsible AI investment. Conclude main results to investigate how they serve the dissertation’s objective. Motivate the tech sector businesses to have dual goals, maximize their profit in parallel to be social friendly.

Bio

Ahmad is a researcher at the LITEM laboratory at Paris Saclay University and funded by the Chair Good In Tech since November 2020. His research is about the Net societal contribution of Artificial Intelligence algorithms: an econometric model supervised by Prof Christine Balague. Ahmad has an MS degree in the field of Economics & Business Management from the Lebanese University.  His  memoir “the impact of Digital Transformation and Artificial Intelligence on Economic Growth.”  For nine countries and for a period of time between 2000-2017. He also worked as a research assistant to design a database and prepare data for the American University of Beirut project. Besides in the Central Bank of Lebanon and other alfa banks as a trainee. During his academic and professional work, ahmad realized the power of data and its impact on well-being. Currently, the focus area is enlarged to cover the significant power of algorithms.