Post-doctorat de Valentine Crosset (2020-2022)
Valentine Crosset
Valentine Crosset est chercheure postdoctoral au médialab et financée par le Chaire Good In Tech depuis novembre 2020. Ses recherches actuelles traitent de la modération des contenus sur les plateformes numériques, en s’intéressant plus particulièrement aux controverses et aux attentes normatives des internautes.
Valentine Crosset est diplômée d’un doctorat en criminologie de l’Université de Montréal. Sa thèse a porté sur la visibilité en ligne de groupes radicaux, au croisement des STS, de la sociologie du militantisme et de la sociologie de la visibilité. Durant ses études doctorales, elle a travaillé sur différents projets touchant au numérique. Elle a notamment travaillé au sein du Centre International de Criminologie Comparée sur un projet de recherche portant sur l’extrême droite et le numérique (2014-2019), mais aussi sur le projet « Autonomisation des acteurs judiciaires par la cyberjustice » (AJC) mis en place par le Laboratoire de cyberjustice de l’Université de Montréal (2019-2020). Enfin, elle a travaillé au sein de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle (2018-2019). Elle a récemment publié des articles dans la revue Critique Internationale et New Media & Society.
Travaux de recherche Axe 1 : Data, algorithmes et société
Chantiers modération des contenus et gouvernance responsable des libertés numériques
Sous bien des rapports, nous vivons aujourd’hui une période de turbulente transformation structurelle de l’espace numérique. Depuis quelques années, les plateformes de médias sociaux sont au cœur d’un important débat sur la modération des contenus. De nombreuses préoccupations ont été soulevées concernant la diffusion de discours haineux, de propagande jihadiste et de fausses informations sur les plateformes numériques. Dans ce contexte, la régulation des géants du web a souvent été présentée comme une réponse indispensable pour garantir l'équilibre démocratique et la stabilité géopolitique au sein de nos sociétés. Face à la pression des pouvoirs publics et de la société civile, les plateformes ont été contraintes d’élargir leurs règlements et politiques, d’agrandir leur équipe de modération, de sous-traiter les opérations de modération ainsi que d’ajouter de nouvelles technologies de détection algorithmique basées sur l’Intelligence artificielle (IA). Malgré ce renforcement de la modération, il n’en demeure pas moins que le débat public reste particulièrement clivé, entre ceux qui critiquent les plateformes pour leur inaction et leur passivité et ceux qui y voient une véritable atteinte à la liberté d’expression.
Ce tournant dans la gouvernance de la liberté d’expression invite à interroger le statut de la régulation « privée » des contenus numériques. Cela pose nécessairement la question de savoir « Quel internet voulons-nous » ? Comment assurer une gouvernance responsable des grands acteurs numériques qui permettrait d’articuler liberté d’expression et protection des publics ? Considérant que le problème public des libertés numériques est une entreprise collective de production de connaissance, ce projet de recherche propose un cadre d’analyse permettant d’examiner ces questions à la fois du point de vue des régulateurs et des acteurs publics, mais aussi des internautes. Les connaissances empiriques sur les perceptions des publics en ce qui concerne le statut de la régulation des contenus et des plateformes sont encore anecdotique et nécessitent des analyses supplémentaires, compte tenu du débat actuel et la multiplication des lois en matière de modération des contenus.
Plutôt que de limiter la réflexion critique au fait de savoir qui doit réguler les contenus et les plateformes numériques et comment, le projet souhaite explorer la gouvernance « en train »de se faire: ses frontières et complexités, ses controverses et débats, ses pratiques et attentes normatives, en prenant en compte l’expérience et le point de vue des utilisateurs. En poursuivant ce type de questionnement, le projet cherchera à identifier et explorer des formes possibles de régulation démocratique de contenus sur internet, pour que celui-ci reste un espace de débat, d’engagement et de liberté.
La recherche se déroule en trois phases :
1. Cartographie des politiques de modération
Un premier niveau du projet consistera à cartographier et synthétiser les différentes politiques de modération des contenus et de régulation des plateformes. Une attention particulière sera accordée aux différentes procédures mises en œuvre en fonction de la nature des contenus publiés (terrorisme, nudité, discours de haine, désinformation). Il s'agit d'une étape préliminaire essentielle pour comprendre le paysage actuel de la modération de contenu et de la régulation des plateformes. L’intérêt de cet objectif est d’explorer les structures institutionnelles, politiques et juridiques sous-jacentes aux contenus en ligne et d’en dresser une analyse critique.
2. Enquête numérique auprès des utilisateurs
Nous effectuerons dans un premier temps une enquête sur les signalements des utilisateurs. Nous nous intéresserons aux activités routinières de signalements en construisant un répertoire de contenus problématiques exprimés et signalés par les internautes. Ce premier versant de l’enquête nous permettra d’observer comment les internautes mettent en œuvre les limites de ce qu’ils souhaitent voir ou éviter sur les réseaux sociaux. Dans un deuxième temps, nous explorerons les plaintes formulées par les utilisateurs à l’égard des opérations de modération opérée par les plateformes numériques. Notre base de données sera constituée a priori de contenus publiés sur les réseaux sociaux. Il nous permettra de dresser l’état de la critique sociale sur les enjeux de liberté d’expression et de modération et de la poser comme point de départ d’une politisation du problème.
3. Expérimentation collective de la modération
Le troisième versant de l’enquête sera de procéder à une enquête exploratoire par entrevues et ateliers participatifs. Cette enquête exploratoire sera menée avec cinq publics cibles: des communautés d’internautes identifiés à partir de notre enquête en ligne ; des associations de défenses des libertés ; des autorités administratives et organismes publics ; des acteurs du numérique ; des avocats et magistrats spécialisés. Les publics seront amenés à expérimenter des contenus problématiques, à débattre de cas qui ont été modérés par les plateformes et à imaginer des dispositifs de modération. Ces expérimentations auront deux visées principales. D’une part, il s’agira d’alimenter l’enquête numérique, en recueillant les valeurs et attentes normatives de publics concernés, d’autre part, elles permettront de co-construire une gouvernance responsable des libertés numériques.
Doctorat d'Ahmad Haidar (en cours)
Ahmad Haidar
Ahmad Haidar est doctorant à l'Université Paris-Saclay, affilié à l'Institut Mines-Télécom Business School et financé par le réseau de recherche Good in Tech depuis novembre 2020. Il est titulaire de deux masters, l'un en économie internationale et l'autre en administration des affaires. Avant ses études doctorales, Ahmad a travaillé comme assistant de recherche à l'Université américaine de Beyrouth. Pendant son doctorat, les articles d'Ahmad ont été sélectionnés et présentés lors de conférences prestigieuses, notamment R&D Management à Séville (juin 2023) et à Stockholm (juin 2024), ISPIM à Tallinn (juin 2024), et la Digital Transformation Society à Paris (mai 2023) et à Naples (mai 2024). Les travaux d'Ahmad ont également été publiés dans des revues de haut rang comme le Journal of Innovation Economics and Management
Travaux de recherche Axe 1 : Data, algorithmes et société et Axe 2 : Responsabilité Digitale des Entreprises
Impact of Artificial Intelligence on Society
Artificial intelligence (AI) is rapidly transforming our world, redefining the relationship between businesses and society. It is essential to develop robust frameworks to manage ethical, sustainable, and risk-aware AI to navigate its profound impact on society. This thesis addresses the critical need for responsible AI (RAI) deployment by shedding light on the dark side of digital innovation (DI) and the dual impact, both positive and negative, of AI and generative AI (GAI). Accordingly, it aims to create frameworks that ensure Responsible Digital Innovation (RDI) and RAI that can empower businesses, policymakers, and researchers to leverage these technologies responsibly. The high-level research questions that guide this dissertation are: What theoretical frameworks currently exist to guide the development and management of RDI/RAI? What would be an effective framework for RAI? What are the risks of GAI and their impact on individual society organizational and environment?
To address these questions, first, a qualitative study involving 18 digital innovation managers from SMEs and large enterprises was conducted to develop a framework for RDI in a business context. The study revealed three key findings: first, how digital innovation managers define RDI; second, the identification of five main dimensions and 25 sub-dimensions of RDI; and third, the obstacles faced in implementing RDI.
Second, a significant focus of the thesis is on the ethical implications of AI. It examines existing ethical AI guidelines and declarations, identifying strengths and areas for improvement through an integrative literature review. The analysis of 27 ethical AI declarations reveals predominant principles such as transparency, fairness, accountability, and privacy. Intermediate principles include security, safety, explainability, and beneficence/well-being. Principles with limited emphasis are legislation, data governance, and disinformation.
Third, while these ethical AI principles are significant, this thesis argues that they alone are not sufficient to achieve RAI. Thus, the third study of the thesis proposes an integrative framework for RAI based on literature. The framework entails four dimensions: technical, sustainable development, responsible innovation management, and legislation. The technical dimension emphasizes embedding ethical principles directly within AI systems. The AI for sustainability dimension underscores AI's impact on achieving sustainability development goals. The responsible innovation management dimension includes elements like anticipation and reflexivity. The legislation dimension offers a comparative analysis of AI-specific laws and regulations between the European Union and the United States.
Fourth, complementing the framework for RAI, the thesis also delves into the emerging risks associated with GAI. This study first identifies the nature of these risks and their level of impact on society, organizations, individuals, and the environment. Quantitative research on 858 incidents, utilizing binary logistic regression, examines the probability of these incidents occurring at each level of impact.
In conclusion, the thesis synthesizes its critical contributions to the field of RDI and RAI, critically evaluating ethical AI principles, identifying and managing risks of GAI, and providing managerial and policy implications.
Post-doctorat d'Alexis Vouillon (2021-2022)
Alexis Vouillon
Travaux de recherche
La fonction de DPO est instaurée par le Règlement Général sur la Protection des Données (RGPD), voté en avril 2016 et entré en application en mai 2018. Sa désignation est obligatoire dans les entreprises privées et dans les organismes publics amenés à constituer des fichiers et traiter des données à caractère personnel. Chargé de nombreuses tâches, en lien avec sa mission principale consistant à veiller au respect des règles relatives à la protection des données, le DPO est assurément le visage de la régulation des données personnelles dans les organisations.
Qui sont les DPO ? Quelles sont leurs trajectoires ? Comment construisent-ils leurs compétences, leur expertise et leur ethos professionnel ? Dans quelles conditions exercent-ils leurs missions au sein des organisations ? Comment, concrètement, exercent-ils ces missions au quotidien ? Leurs compétences sont-elles ajustées à ces missions, doivent-elles évoluer ? Comment et par qui sont-ils évalués ? Dans quelle mesure sont-ils susceptibles d’infléchir et de déterminer la manière dont se structure l’économie des données personnelles ? Les questions soulevées par l’émergence de la figure du DPO sont nombreuses.
La perspective privilégiée dans cette recherche est celle de la sociologie du travail et des groupes professionnels (Demazière et Gadéa, 2009) ainsi que les approches en Gestion des Ressources Humaines sur les aspects compétences et développement des compétences. Elle invite à explorer la dynamique de formation du groupe des DPO sous l’angle de la professionnalisation : construction des expertises et codification des compétences, rôle des formations et des associations professionnelles, sociabilités, normes déontologiques, autonomie et légitimité, définition juridique du statut et négociation de celui-ci au sein des organisations, etc. Une enquête menée en 2019 par la Délégation Générale à l’Emploi et à la Formation Professionnelle auprès de 1265 DPO révèle la diversité des profils mesurée par le domaine d’expertise d’origine : 31 % sont juristes, 34 % informaticiens, 34 % appartiennent à d’autres domaines d’expertise. Dispersés et potentiellement isolés dans leurs organisations, adossés à des expertises très hétérogènes, comment les DPO construisent-ils leur identité professionnelle ?
Cette perspective de sociologie des professions pourra être complétée et articulée à deux autres approches sociologiques. D’abord, du côté de la sociologie du droit, l’émergence de nouveaux « intermédiaires du droit » dotés de prérogatives et de moyens élargis invite à poursuivre les analyses sur l’« endogénéité » du droit et des activités économiques (Edelman et Suchman, 1997 ; Bessy, Delpeuch et Pélisse, 2011). Compte tenu de l’ambiguïté de la règle de droit, son application est nécessairement guidée par l’interprétation qu’en donnent les acteurs, et en particulier ceux d’entre eux occupant une position particulière, à l’interface de l’économie, de la technique et du droit. Lenglet (2012) s’est intéressé par exemple aux déontologues de marché, dont le rôle est d’autoriser ou d’interdire certaines transactions aux opérateurs de marché, sur les marchés financiers. Les DPO s’imposent-ils dans les organisations comme des déontologues de la gestion des données, voire de l’informatique ? Ensuite, dans une perspective de sociologie économique du numérique, les DPO sont chargés de veiller, au sein de leur organisation, à la protection des données personnelles, et donc à l’encadrement des activités d’enrichissement et de valorisation dont elles sont susceptibles de faire l’objet. Les « data » sont ainsi constituées en actifs économiques dotés de certaines propriétés – durée de vie, capacité à circuler dans et à l’extérieur des organisations, capacité à être combinés (Beauvisage, Mellet, 2020). Quel rôle jouent les DPO dans ces opérations ? Dans quelle mesure leurs décisions, leurs outils, le contrôle qu’ils exercent participent-il de la valorisation économique des données personnelles ?
Ces questionnements appellent la réalisation d’enquêtes empiriques, qualitatives et/ou quantitatives. L’entrée sur le terrain se fera par le biais des formations (accès au terrain facilité auprès des formations partenaires : le Master spécialisé « Data Protection Management » d’IMT Business School et le certificat « Data Protection Officer » de Sciences Po Paris), d’associations professionnelles, de plateformes de networking professionnel. Elle pourra être centrée sur un domaine particulier ou ouverte à une palette large de secteurs et de types d’organisations. Elle se concrétisera par la rédaction d’un rapport de recherche, de publications scientifiques et par des échanges et valorisations, en particulier auprès des formations associées.
Références bibliographiques
Beauvisage, T., & Mellet, K. (2020). Datassets: assetizing and marketizing personal data. In Birch K. & F. Muniesa (eds), Assetization: turning things into assets in technoscientific capitalism, MIT Press
Bessy, C., Delpeuch, T., & Pélisse, J. (2011). Droit et régulations des activités économiques : perspectives sociologiques et institutionnalistes. LGDJ.
Demazière D. et C. Gadéa (dir.), Sociologie des groupes professionnels. Acquis récents et nouveaux défis, La Découverte, Paris, 2009
Edelman, L. B., & Suchman, M. C. (1997). The legal environments of organizations. Annual review of sociology, 23(1), 479-515.
Lenglet, M. (2012). Ambivalence and ambiguity: The interpretive role of compliance officers. In Finance: The Discreet Regulator, Palgrave Macmillan, London.
Doctorat de Jean-Marie John-Mathews (2019-2021)
Jean-Marie John-Mathews
Jean-Marie John-Mathews est data scientist et doctorant à IMTBS en éthique algorithmique sur les impacts des algorithmes dits « éthiques by design » en intelligence artificielle. Il est également enseignant à Sciences Po en méthodes quantitatives pour les sciences sociales et à l’université PSL en mathématiques et probabilités. Par le passé, il a travaillé en tant que data scientist dans le conseil puis l’industrie après une formation en mathématiques, économie puis philosophie.
Le développement mondial des usages et des services numériques depuis plus d’une vingtaine d’années a entraîné une production massive de données numériques par les individus, que ce soit sur des sites web, des blogs, des forums, des réseaux sociaux, ou encore via des objets connectés présents sur soi (smartphone, wearables), à la maison (smarthome) ou dans la ville (smartcity). Dans ce contexte, la collecte et l’exploitation de ces données sont devenues des enjeux majeurs à la fois pour les chercheurs, pour les entreprises comme pour les Etats. Les algorithmes et les méthodes d’apprentissage supervisées ou non supervisées, au travers du Machine learning et du Deep learning, sont aujourd’hui dans beaucoup de services digitaux, que ce soient les moteurs de recherche, les réseaux sociaux, les systèmes de recommandations, la publicité en ligne, ou encore les chatbots ou les robots. Ainsi les algorithmes constituent des intermédiaires de plus en plus présents dans les interactions entre les entreprises et les consommateurs, et entre les individus eux-mêmes. Plus globalement ils interagissent aussi dans la compréhension de l’environnement économique, politique ou encore social. Ce phénomène est source d’inquiétudes et de débats, ce qui a donné lieu ces dernières années à la production de plusieurs rapports et missions gouvernementaux et au développement dans plusieurs pays d’un courant de recherche interdisciplinaire sur la nécessité de développer des algorithmiques éthiques by design.
Cette thèse a pour premier but de clarifier les concepts autour de l’éthique des algorithmes en les inscrivant dans leur contexte d’utilisation et leur contexte d’élaboration technique. Ensuite, il s'agit d’évaluer l’impact des méthodes de conception éthique by design des algorithmes sur la société. Des enjeux sur les outils techniques de certification de critères éthiques seront explorés, à l’état de recherche encore actuellement. Cette évaluation des impacts nous appelle à penser un modèle de gouvernance pour les entreprises ainsi qu’un modèle de régulation pour les pouvoirs publics afin de répondre aux différents enjeux éthiques.
Cette thèse a été soutenue en décembre 2021 et Jean Marie John Matthews a reçu en 2022 deux prix de thèses en Sciences de Gestion : Prix Andese et Prix de la Chancellerie.
Post Doctorat de Zeling Zhong (2020-2021)
Zeling Zhong
Zeling Zhong a effectué une thèse à l’Institut Mines-Télécom Business School, laboratoire Litem, Université Paris Saclay sur l’appropriation des objects connectés. Elle a effectué son post doctorat au sein de Good in Tech
De nombreux travaux de recherche ont été publiés ces dernières années sur les impacts négatifs des systèmes algorithmiques sur les individus et la société : Eipstein (2015) a montré les effets de manipulation des moteurs de recherche sur les intentions de vote ; Basky et al. (2015) ont révélé dans la revue Science le phénomène des bulles filtrantes sur Facebook et la limite d’accès à une diversité d’opinion ; Lambrecht et Tucker (2019) ont mis en avant des effets de discrimination selon le genre dans les algorithmes de recrutement ; Obermayer et al. (2019) dans Science montrent la discrimination des populations noires dans les algorithmes de santé largement utilisés aux Etats-Unis pour l’accès aux soins. Plusieurs ouvrages ont également souligné l’accroissement des inégalités et les menaces pour la démocratie du développement des systèmes algorithmiques (Eubanks, 2017; O’Neil, 2016). Dans le même courant, un certain nombre d’initiatives et rapports ont été publiés (déclaration de Montréal, 2018 ; rapport du HLEG de la commission européenne, 2019), défendant la nécessité de développer une intelligence artificielle et des systèmes algorithmiques respectant certains principes (justice, autonomie, bienfaisance et non malfaisance), générant de la confiance auprès des utilisateurs, et non discriminants. Notre projet de recherche se positionne dans ce courant international de pensée sur l’éthique et la responsabilité des technologies sur les individus et la société.
Même si la littérature récente est riche de publications sur l’éthique des algorithmes, celles-ci sont particulièrement nombreuses en informatique (computer science), en sociologie, en philosophie et en droit. Cependant, les publications en science informatique ont souvent une vision de développement de technologies « responsables by design », qui suppose que la solution se situe dans le code et la programmation, en rendant les algorithmes principalement plus explicables, redevables, non discriminants et non biaisés. Ceci a donné lieu à plusieurs courants de recherche sur les concepts de « fairness, accountability, transparency » et la création de la conférence interdisciplinaire FAT (Fairness, Accountability, Transparency). En revanche, L’étude en sciences humaines et sociales de la perception des algorithmes d’intelligence artificielle par les individus a fait l’objet de peu de recherches, tout comme le processus d’appropriation des systèmes algorithmiques, sujet peu traité dans la littérature.
Notre recherche vise donc à creuser ce sujet. Nous chercherons à mieux comprendre et à modéliser l’appropriation des systèmes algorithmiques par les individus, en notamment mobilisant un certain nombre de concepts de la littérature. Plusieurs publications portent sur la perception des décisions algorithmiques, mais les résultats divergent, certains montrant que les individus préfèrent les décisions algorithmiques, d’autres les décisions humaines. Lee (2018) par exemple démontre que la perception des décisions algorithmiques dépend du type de tâche effectuée par l’algorithme (tâches mécaniques vs humaines) : pour les tâches mécaniques, les décisions humaines et algorithmiques sont perçues au même niveau de justice, de confiance et évoquent les mêmes émotions ; pour les tâches humaines, les décisions algorithmiques sont perçues comme moins justes et à un moindre niveau de confiance, tout en évoquant des émotions plus négatives que les décisions humaines. Logg, Minson et Moore (2019) montrent au contraire que les individus préfèrent les algorithmes au jugement humain, ce qu’ils nomment l’effet d’appréciation des algorithmes. D’autres auteurs se sont intéressés à d’autres variables. Ekstrand et al. (2014) par exemple ont étudié l’évaluation des systèmes de recommandations par leurs utilisateurs, montrant que la satisfaction de l’utilisateur prédit sa sélection finale. Bucher (2017) met en avant le concept d’imaginaire algorithmique et la manière dont les individus vivent et pensent les algorithmes. Un autre courant pertinent pour notre projet de recherche est celui sur l’appropriation des technologies par les utilisateurs. Ce concept a été modélisé dans la thèse de Zeling Zhong (2019), porteuse de ce projet de recherche, qui a étudié l’appropriation sur une technologie spécifique (les objets connectés). Nous visons donc à étudier l’appropriation de systèmes algorithmiques par leurs utilisateurs, en nous appuyant à la fois sur les travaux de recherche de la thèse de Zeling Zhong sur l’appropriation et sur les travaux antérieurs sur les perceptions des algorithmes par les individus, pour élaborer un modèle quantitatif de l’appropriation. En particulier, les perceptions d’opacité, de potentiels biais ou effets de discrimination, ou d’atteinte à la privacy seront étudiés afin de souligner la nécessité de développer des algorithmes « responsables by design ».
La méthodologie consistera dans une première étape à élaborer un modèle théorique de l’appropriation des systèmes algorithmiques sur la base de la littérature, puis de tester ce modèle sur des données réelles d’utilisateurs d’assistants vocaux virtuels (de type Good Home ou Alexa), dont les services reposent sur des algorithmes apprenants d’intelligence artificielle.
Un questionnaire quantitatif sera élaboré afin de mesurer chacune des variables du modèle, puis un terrain quantitatif sera mené avec une société d’access panel afin d’obtenir un nombre suffisant d’utilisateurs d’assistants vocaux virtuels, et de réponses au questionnaire.
Enfin, un modèle PLS (Partial Least Square) sera utilisé pour valider les différentes hypothèses formulées dans le modèle théorique.