Thèses et post-doctorats

Post-doctorat de Valentine Crosset (2020-2022)

Valentine Crosset

Valentine Crosset est chercheure postdoctoral au médialab et financée par le Chaire Good In Tech depuis novembre 2020. Ses recherches actuelles traitent de la modération des contenus sur les plateformes numériques, en s’intéressant plus particulièrement aux controverses et aux attentes normatives des internautes.
Valentine Crosset est diplômée d’un doctorat en criminologie de l’Université de Montréal. Sa thèse a porté sur la visibilité en ligne de groupes radicaux, au croisement des STS, de la sociologie du militantisme et de la sociologie de la visibilité. Durant ses études doctorales, elle  a travaillé sur différents projets touchant au numérique. Elle a notamment travaillé au sein du Centre International de Criminologie Comparée sur  un projet de recherche portant sur l’extrême droite et le numérique (2014-2019), mais aussi sur le projet « Autonomisation des acteurs judiciaires par la cyberjustice » (AJC) mis en place par le Laboratoire de cyberjustice de l’Université de Montréal (2019-2020). Enfin, elle a travaillé au sein de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (2018-2019). Elle a récemment publié des articles dans la revue Critique Internationale et New Media & Society.

Travaux de recherche Axe 1 : Data, algorithmes et société 


Chantiers modération des contenus et gouvernance responsable des libertés numériques


Sous bien des rapports, nous vivons aujourd’hui une période de turbulente transformation structurelle de l’espace numérique. Depuis quelques années, les plateformes de médias sociaux sont au cœur d’un important débat sur la modération des contenus. De nombreuses préoccupations ont été soulevées concernant la diffusion de discours haineux, de propagande jihadiste et de fausses informations sur les plateformes numériques. Dans ce contexte, la régulation des géants du web a souvent été présentée comme une réponse indispensable pour garantir l'équilibre démocratique et la stabilité géopolitique au sein de nos sociétés. Face à la pression des pouvoirs publics et de la société civile, les plateformes ont été contraintes d’élargir leurs règlements et politiques, d’agrandir leur équipe de modération, de sous-traiter les opérations de modération ainsi que d’ajouter de nouvelles technologies de détection algorithmique basées sur l’Intelligence artificielle (IA). Malgré ce renforcement de la modération, il n’en demeure pas moins que le débat public reste particulièrement clivé, entre ceux qui critiquent les plateformes pour leur inaction et leur passivité et ceux qui y voient une véritable atteinte à la liberté d’expression.
Ce tournant dans la gouvernance de la liberté d’expression invite à interroger le statut de la régulation « privée » des contenus numériques. Cela pose nécessairement la question de savoir « Quel internet voulons-nous » ? Comment assurer une gouvernance responsable des grands acteurs numériques qui permettrait d’articuler liberté d’expression et protection des publics ? Considérant que le problème public des libertés numériques est une entreprise collective de production de connaissance, ce projet de recherche propose un cadre d’analyse permettant d’examiner ces questions à la fois du point de vue des régulateurs et des acteurs publics, mais aussi des internautes. Les connaissances empiriques sur les perceptions des publics en ce qui concerne le statut de la régulation des contenus et des plateformes sont encore anecdotique et nécessitent des analyses supplémentaires, compte tenu du débat actuel et la multiplication des lois en matière de modération des contenus.

Plutôt que de limiter la réflexion critique au fait de savoir qui doit réguler les contenus et les plateformes numériques et comment, le projet souhaite explorer la gouvernance « en train »de se faire: ses frontières et complexités, ses controverses et débats, ses pratiques et attentes normatives, en prenant en compte l’expérience et le point de vue des utilisateurs. En poursuivant ce type de questionnement, le projet cherchera à identifier et explorer des formes possibles de régulation démocratique de contenus sur internet, pour que celui-ci reste un espace de débat, d’engagement et de liberté.

La recherche se déroule en trois phases :

  1. Cartographie des politiques de modération

Un premier niveau du projet consistera à cartographier et synthétiser les différentes politiques de modération des contenus et de régulation des plateformes. Une attention particulière sera accordée aux différentes procédures mises en œuvre en fonction de la nature des contenus publiés (terrorisme, nudité, discours de haine, désinformation). Il s'agit d'une étape préliminaire essentielle pour comprendre le paysage actuel de la modération de contenu et de la régulation des plateformes. L’intérêt de cet objectif est d’explorer les structures institutionnelles, politiques et juridiques sous-jacentes aux contenus en ligne et d’en dresser une analyse critique.

    2. Enquête numérique auprès des utilisateurs

Nous effectuerons dans un premier temps une enquête sur les signalements des utilisateurs. Nous nous intéresserons aux activités routinières de signalements en construisant un répertoire de contenus problématiques exprimés et signalés par les internautes. Ce premier versant de l’enquête nous permettra d’observer comment les internautes mettent en œuvre les limites de ce qu’ils souhaitent voir ou éviter sur les réseaux sociaux. Dans un deuxième temps, nous explorerons les plaintes formulées par les utilisateurs à l’égard des opérations de modération opérée par les plateformes numériques. Notre base de données sera constituée a priori de contenus publiés sur les réseaux sociaux. Il nous permettra de dresser l’état de la critique sociale sur les enjeux de liberté d’expression et de modération et de la poser comme point de départ d’une politisation du problème.

     3. Expérimentation collective de la modération

Le troisième versant de l’enquête sera de procéder à une enquête exploratoire par entrevues et ateliers participatifs. Cette enquête exploratoire sera menée avec cinq publics cibles: des communautés d’internautes identifiés à partir de notre enquête en ligne ; des associations de défenses des libertés ; des autorités administratives et organismes publics ; des acteurs du numérique ; des avocats et magistrats spécialisés. Les publics seront amenés à expérimenter des contenus problématiques, à débattre de cas qui ont été modérés par les plateformes et à imaginer des dispositifs de modération. Ces expérimentations auront deux visées principales. D’une part, il s’agira d’alimenter l’enquête numérique, en recueillant les valeurs et attentes normatives de publics concernés, d’autre part, elles permettront de co-construire une gouvernance responsable des libertés numériques.

Doctorat d'Ahmad Haidar (en cours)

Ahmad Haidar

Ahmad est chercheur au laboratoire LITEM de l'Université Paris Saclay et financé par la Chaire Good In Tech depuis novembre 2020. Ses recherches portent sur l'apport sociétal du Net des algorithmes d'Intelligence Artificielle : un modèle économétrique encadré par le Pr Christine Balague. Ahmad est titulaire d'une maîtrise dans le domaine de l'économie et de la gestion d'entreprise de l'Université libanaise. Ses mémoires "L'impact de la transformation numérique et de l'intelligence artificielle sur la croissance économique".
Pour neuf pays et pour une période allant de 2000 à 2017. Il a également travaillé comme assistant de recherche pour concevoir une base de données et préparer des données pour le projet de l'Université américaine de Beyrouth. Outre à la Banque centrale du Liban et d'autres banques alfa en tant que stagiaire. Au cours de son travail académique et professionnel, ahmad a réalisé le pouvoir des données et son impact sur le bien-être. Actuellement, le domaine d'intervention est élargi pour couvrir la puissance importante des algorithmes.



Travaux de recherche Axe 1 : Data, algorithmes et société et Axe 2 : Responsabilité Digitale des Entreprises

Impact of Artificial Intelligence on Society

 
Meanwhile, there is an acceleration in developing new technologies that can learn from themselves and provide more and more relevant results, i.e., Artificial Intelligence (AI). With this increasing competence, machine learning is increasingly being employed in real-world socio-technical contexts of high consequence. It’s not a secret that people and machines are starting to be more partners in various aspects of life, starting by using Google Maps, Siri to self-driving cars. Some can’t even imagine life without these technologies; businesses read this mentality as an increase in demand for innovative technologies by society, so new lines to maximize their profit. For this reason, we will see an increase in investment vehicles focused on ethical tech such as electric cars, besides adapting business models which are hyper-compliant with GDPR.

This AI era could help solve significant problems such as medicine and healthcare, energy usage, transportation, and other domains. Yet, this advancement associate harmful consequences on society using an intelligent algorithm such as manipulating the voting system of a presidential election, discrimination –in different fields such as hiring process, data abuse, cybersecurity,  privacy violation, job losses, etc.
This intersection of machine learning with society has fueled this dissertation to raise questions and concerns about the risks and advantages of Machine Learning. A small segment of research effort is devoted to measuring this relation in all its prospects. Hence, this dissertation will study the various aspects of responsible machine learning that are more engaged with society by creating an econometric model. These measures concluded from four major declarations and regulations to adopt the consequences of this advancement in technologies; Montreal declaration for a Responsible Development of Artificial Intelligence (2018). EU High-Level Expert Group On Artificial Intelligence (2018).  Recommendation of the Council on OECD Legal Instruments Artificial Intelligence (2019). UNESCO Recommendation on the Ethics of Artificial Intelligence, Open Dialogue on AI Ethics (ODAI) (2020). These guidelines and recommendations aim to promote and foster Trustworthy AI. The framework of Responsible AI has five main principles, and each has several dimensions. First, Respect for Autonomy includes human agency and solidarity. Second, the Prevention of Harm comprises privacy and data governance, societal and environmental well-being, robustness, and prudence. Third, Fairness covers accountability, equity, diversity inclusion, and environmental well-being. Fourth, Explicability also involves accountability besides transparency, interoperability, and data governance. The last principle is Democratic Participation. These principles attached to their actions will be considered input data to measure its influence on society and individuals and tech companies’ well-being.  

The research will take place in three phases:

1. Mapping of moderation policies

The first level of the dissertation will consist of a massive overlook on previous studies, theoretical and practical, the impact of artificial intelligence on society. A literature review describes the negative effect of machine learning and the reasons behind the regulations made for these “superpower” algorithms. Particular attention will be paid to various international regulators, Montreal Declaration, EU High-Level Expert Group On Artificial Intelligence. OECD Legal Instruments Artificial Intelligence. UNESCO Recommendation on the Ethics of Artificial Intelligence, Open Dialogue on AI Ethics (ODAI). It is an essential preliminary step in understanding the current landscape of net societal contribution to AI for constructing an econometric model.

2. Methodology and data modeling

The primary objective of this dissertation is to understand the impact of AI on society better. In contrast to quantitative research, which focuses on measuring and validation, qualitative research helps address these exploratory questions by allowing researchers to address “why” and “how” questions. As a result, qualitative research is appropriate for addressing the objectives of this study. This study employs a qualitative approach based on Grounded Theory involving semi-structured and digital interviews with experts from the AI field in industries interested in this topic and academia. As such, we will deal with primary and recent data to create our model.

3. Experimentation with moderation

The third aspect is to make several experiments and run the model in various startup firms interested in responsible AI investment. Conclude main results to investigate how they serve the dissertation’s objective. Motivate the tech sector businesses to have dual goals, maximize their profit in parallel to be social friendly.

Post-doctorat d'Alexis Vouillon (2021-2022)

Alexis Vouillon



Travaux de recherche

La fonction de DPO est instaurée par le Règlement Général sur la Protection des Données (RGPD), voté en avril 2016 et entré en application en mai 2018. Sa désignation est obligatoire dans les entreprises privées et dans les organismes publics amenés à constituer des fichiers et traiter des données à caractère personnel. Chargé de nombreuses tâches, en lien avec sa mission principale consistant à veiller au respect des règles relatives à la protection des données, le DPO est assurément le visage de la régulation des données personnelles dans les organisations.
 
Qui sont les DPO ? Quelles sont leurs trajectoires ? Comment construisent-ils leurs compétences, leur expertise et leur ethos professionnel ? Dans quelles conditions exercent-ils leurs missions au sein des organisations ? Comment, concrètement, exercent-ils ces missions au quotidien ? Leurs compétences sont-elles ajustées à ces missions, doivent-elles évoluer ? Comment et par qui sont-ils évalués ? Dans quelle mesure sont-ils susceptibles d’infléchir et de déterminer la manière dont se structure l’économie des données personnelles ? Les questions soulevées par l’émergence de la figure du DPO sont nombreuses.
 
La perspective privilégiée dans cette recherche est celle de la sociologie du travail et des groupes professionnels (Demazière et Gadéa, 2009) ainsi que les approches en Gestion des Ressources Humaines sur les aspects compétences et développement des compétences. Elle invite à explorer la dynamique de formation du groupe des DPO sous l’angle de la professionnalisation : construction des expertises et codification des compétences, rôle des formations et des associations professionnelles, sociabilités, normes déontologiques, autonomie et légitimité, définition juridique du statut et négociation de celui-ci au sein des organisations, etc. Une enquête menée en 2019 par la Délégation Générale à l’Emploi et à la Formation Professionnelle auprès de 1265 DPO révèle la diversité des profils mesurée par le domaine d’expertise d’origine : 31 % sont juristes, 34 % informaticiens, 34 % appartiennent à d’autres domaines d’expertise. Dispersés et potentiellement isolés dans leurs organisations, adossés à des expertises très hétérogènes, comment les DPO construisent-ils leur identité professionnelle ?
 
Cette perspective de sociologie des professions pourra être complétée et articulée à deux autres approches sociologiques. D’abord, du côté de la sociologie du droit, l’émergence de nouveaux « intermédiaires du droit » dotés de prérogatives et de moyens élargis invite à poursuivre les analyses sur l’« endogénéité » du droit et des activités économiques (Edelman et Suchman, 1997 ; Bessy, Delpeuch et Pélisse, 2011). Compte tenu de l’ambiguïté de la règle de droit, son application est nécessairement guidée par l’interprétation qu’en donnent les acteurs, et en particulier ceux d’entre eux occupant une position particulière, à l’interface de l’économie, de la technique et du droit. Lenglet (2012) s’est intéressé par exemple aux déontologues de marché, dont le rôle est d’autoriser ou d’interdire certaines transactions aux opérateurs de marché, sur les marchés financiers. Les DPO s’imposent-ils dans les organisations comme des déontologues de la gestion des données, voire de l’informatique ? Ensuite, dans une perspective de sociologie économique du numérique, les DPO sont chargés de veiller, au sein de leur organisation, à la protection des données personnelles, et donc à l’encadrement des activités d’enrichissement et de valorisation dont elles sont susceptibles de faire l’objet. Les « data » sont ainsi constituées en actifs économiques dotés de certaines propriétés – durée de vie, capacité à circuler dans et à l’extérieur des organisations, capacité à être combinés (Beauvisage, Mellet, 2020). Quel rôle jouent les DPO dans ces opérations ? Dans quelle mesure leurs décisions, leurs outils, le contrôle qu’ils exercent participent-il de la valorisation économique des données personnelles ?
 
Ces questionnements appellent la réalisation d’enquêtes empiriques, qualitatives et/ou quantitatives. L’entrée sur le terrain se fera par le biais des formations (accès au terrain facilité auprès des formations partenaires : le Master spécialisé « Data Protection Management » d’IMT Business School et le certificat « Data Protection Officer » de Sciences Po Paris), d’associations professionnelles, de plateformes de networking professionnel. Elle pourra être centrée sur un domaine particulier ou ouverte à une palette large de secteurs et de types d’organisations. Elle se concrétisera par la rédaction d’un rapport de recherche, de publications scientifiques et par des échanges et valorisations, en particulier auprès des formations associées.
 
Références bibliographiques

Beauvisage, T., & Mellet, K. (2020). Datassets: assetizing and marketizing personal data. In Birch K. & F. Muniesa (eds), Assetization: turning things into assets in technoscientific capitalism, MIT Press
Bessy, C., Delpeuch, T., & Pélisse, J. (2011). Droit et régulations des activités économiques : perspectives sociologiques et institutionnalistes. LGDJ.
Demazière D. et C. Gadéa (dir.), Sociologie des groupes professionnels. Acquis récents et nouveaux défis, La Découverte, Paris, 2009
Edelman, L. B., & Suchman, M. C. (1997). The legal environments of organizations. Annual review of sociology, 23(1), 479-515.
Lenglet, M. (2012). Ambivalence and ambiguity: The interpretive role of compliance officers. In Finance: The Discreet Regulator, Palgrave Macmillan, London.

Doctorat de Jean-Marie John-Mathews (2019-2021)

Jean-Marie John-Mathews

Jean-Marie John-Mathews est data scientist et doctorant à IMTBS en éthique algorithmique sur les impacts des algorithmes dits « éthiques by design » en intelligence artificielle. Il est également enseignant à Sciences Po en méthodes quantitatives pour les sciences sociales et à l’université PSL en mathématiques et probabilités. Par le passé, il a travaillé en tant que data scientist dans le conseil puis l’industrie après une formation en mathématiques, économie puis philosophie.


Le développement mondial des usages et des services numériques depuis plus d’une vingtaine d’années a entraîné une production massive de données numériques par les individus, que ce soit sur des sites web, des blogs, des forums, des réseaux sociaux, ou encore via des objets connectés présents sur soi (smartphone, wearables), à la maison (smarthome) ou dans la ville (smartcity). Dans ce contexte, la collecte et l’exploitation de ces données sont devenues des enjeux majeurs à la fois pour les chercheurs, pour les entreprises comme pour les Etats.  Les algorithmes et les méthodes d’apprentissage supervisées ou non supervisées, au travers du Machine learning et du Deep learning, sont aujourd’hui dans beaucoup de services digitaux, que ce soient les moteurs de recherche, les réseaux sociaux, les systèmes de recommandations, la publicité en ligne, ou encore les chatbots ou les robots. Ainsi les algorithmes constituent des intermédiaires de plus en plus présents dans les interactions entre les entreprises et les consommateurs, et entre les individus eux-mêmes. Plus globalement ils interagissent aussi dans la compréhension de l’environnement économique, politique ou encore social. Ce phénomène est source d’inquiétudes et de débats, ce qui a donné lieu ces dernières années à la production de plusieurs rapports et missions gouvernementaux et au développement dans plusieurs pays d’un courant de recherche interdisciplinaire sur la nécessité de développer des algorithmiques éthiques by design.

Cette thèse a pour premier but de clarifier les concepts autour de l’éthique des algorithmes en les inscrivant dans leur contexte d’utilisation et leur contexte d’élaboration technique. Ensuite, il s'agit d’évaluer l’impact des méthodes de conception éthique by design des algorithmes sur la société. Des enjeux sur les outils techniques de certification de critères éthiques seront explorés, à l’état de recherche encore actuellement. Cette évaluation des impacts nous appelle à penser un modèle de gouvernance pour les entreprises ainsi qu’un modèle de régulation pour les pouvoirs publics afin de répondre aux différents enjeux éthiques.


Cette thèse a été soutenue en décembre 2021 et Jean Marie John Matthews a reçu en 2022 deux prix de thèses en Sciences de Gestion : Prix Andese et Prix de la Chancellerie. 


Post Doctorat de Zeling Zhong  (2020-2021)

Zeling Zhong

Zeling Zhong a effectué une thèse à l’Institut Mines-Télécom Business School, laboratoire Litem, Université Paris Saclay sur l’appropriation des objects connectés. Elle a effectué son post doctorat au sein de Good in Tech 


De nombreux travaux de recherche ont été publiés ces dernières années sur les impacts négatifs des systèmes algorithmiques sur les individus et la société : Eipstein (2015) a montré les effets de manipulation des moteurs de recherche sur les intentions de vote ; Basky et al. (2015) ont révélé dans la revue Science le phénomène des bulles filtrantes sur Facebook et la limite d’accès à une diversité d’opinion ; Lambrecht et Tucker (2019) ont mis en avant des effets de discrimination selon le genre dans les algorithmes de recrutement ; Obermayer et al. (2019) dans Science montrent la discrimination des populations noires dans les algorithmes de santé largement utilisés aux Etats-Unis pour l’accès aux soins. Plusieurs ouvrages ont également souligné l’accroissement des inégalités et les menaces pour la démocratie du développement des systèmes algorithmiques (Eubanks, 2017; O’Neil, 2016). Dans le même courant, un certain nombre d’initiatives et rapports ont été publiés (déclaration de Montréal, 2018 ; rapport du HLEG de la commission européenne, 2019), défendant la nécessité de développer une intelligence artificielle et des systèmes algorithmiques respectant certains principes (justice, autonomie, bienfaisance et non malfaisance), générant de la confiance auprès des utilisateurs, et non discriminants. Notre projet de recherche se positionne dans ce courant international de pensée sur l’éthique et la responsabilité des technologies sur les individus et la société.
Même si la littérature récente est riche de publications sur l’éthique des algorithmes, celles-ci sont particulièrement nombreuses en informatique (computer science), en sociologie, en philosophie et en droit. Cependant, les publications en science informatique ont souvent une vision de développement de technologies « responsables by design », qui suppose que la solution se situe dans le code et la programmation, en rendant les algorithmes principalement plus explicables, redevables, non discriminants et non biaisés. Ceci a donné lieu à plusieurs courants de recherche sur les concepts de « fairness, accountability, transparency » et la création de la conférence interdisciplinaire FAT (Fairness, Accountability, Transparency). En revanche, L’étude en sciences humaines et sociales de la perception des algorithmes d’intelligence artificielle par les individus a fait l’objet de peu de recherches, tout comme le processus d’appropriation des systèmes algorithmiques, sujet peu traité dans la littérature.
Notre recherche vise donc à creuser ce sujet. Nous chercherons à mieux comprendre et à modéliser l’appropriation des systèmes algorithmiques par les individus, en notamment mobilisant un certain nombre de concepts de la littérature. Plusieurs publications portent sur la perception des décisions algorithmiques, mais les résultats divergent, certains montrant que les individus préfèrent les décisions algorithmiques, d’autres les décisions humaines. Lee (2018) par exemple démontre que la perception des décisions algorithmiques dépend du type de tâche effectuée par l’algorithme (tâches mécaniques vs humaines) : pour les tâches mécaniques, les décisions humaines et algorithmiques sont perçues au même niveau de justice, de confiance et évoquent les mêmes émotions ; pour les tâches humaines, les décisions algorithmiques sont perçues comme moins justes et à un moindre niveau de confiance, tout en évoquant des émotions plus négatives que les décisions humaines. Logg, Minson et Moore (2019) montrent au contraire que les individus préfèrent les algorithmes au jugement humain, ce qu’ils nomment l’effet d’appréciation des algorithmes. D’autres auteurs se sont intéressés à d’autres variables. Ekstrand et al. (2014) par exemple ont étudié l’évaluation des systèmes de recommandations par leurs utilisateurs, montrant que la satisfaction de l’utilisateur prédit sa sélection finale. Bucher (2017) met en avant le concept d’imaginaire algorithmique et la manière dont les individus vivent et pensent les algorithmes. Un autre courant pertinent pour notre projet de recherche est celui sur l’appropriation des technologies par les utilisateurs. Ce concept a été modélisé dans la thèse de Zeling Zhong (2019), porteuse de ce projet de recherche, qui a étudié l’appropriation sur une technologie spécifique (les objets connectés). Nous visons donc à étudier l’appropriation de systèmes algorithmiques par leurs utilisateurs, en nous appuyant à la fois sur les travaux de recherche de la thèse de Zeling Zhong sur l’appropriation et sur les travaux antérieurs sur les perceptions des algorithmes par les individus, pour élaborer un modèle quantitatif de l’appropriation. En particulier, les perceptions d’opacité, de potentiels biais ou effets de discrimination, ou d’atteinte à la privacy seront étudiés afin de souligner la nécessité de développer des algorithmes « responsables by design ».
La méthodologie consistera dans une première étape à élaborer un modèle théorique de l’appropriation des systèmes algorithmiques sur la base de la littérature, puis de tester ce modèle sur des données réelles d’utilisateurs d’assistants vocaux virtuels (de type Good Home ou Alexa), dont les services reposent sur des algorithmes apprenants d’intelligence artificielle.
Un questionnaire quantitatif sera élaboré afin de mesurer chacune des variables du modèle, puis un terrain quantitatif sera mené avec une société d’access panel afin d’obtenir un nombre suffisant d’utilisateurs d’assistants vocaux virtuels, et de réponses au questionnaire.
Enfin, un modèle PLS (Partial Least Square) sera utilisé pour valider les différentes hypothèses formulées dans le modèle théorique.