Contribution - Un an après l'arrivée de ChatGPT : réflexions de l'Obvia sur les enjeux et pistes d'action possibles face à l'IA générative
Contribution de Christine Balagué
Depuis l’automne 2022, avec l’arrivée abrupte de ChatGPT, la version gratuite du modèle de langage de l’entreprise OpenAI, les expérimentations à grande échelle du déploiement de ce système d’intelligence artificielle ont suscité un tsunami de réactions dont on perçoit les conséquences autant dans nos vies personnelles que professionnelles. En raison de l’ampleur des implications de cet événement, qui symbolise un changement hautement disruptif pour nos sociétés, il s’avérait incontournable qu’un groupe de chercheuses et de cher- cheurs de l’Obvia s’y penche afin de contribuer à la réflexion sur le sujet et dégager des pistes d’action.
Publicité numérique responsable
par Marion Seigneurin, sous la cordination de Christine Balagué et Kévin Mellet
Sommée de se transformer, l’industrie publicitaire a engagé depuis quelques années une démarche – relativement nouvelle pour le secteur – de responsabilisation. L’impact sociétal de la publicité numérique se décline autour de plusieurs points de tension tels que les algorithmes, le concept de privacy, les formats de publicités digitales ou encore l’impact écologique de cette dernière. L’ampleur de ces enjeux questionne et souligne l’importance d’une pratique responsable de la publicité numérique. Une telle responsabilité émerge chez certains acteurs de la publicité numérique et la dynamique d’autorégulation du secteur peut désormais porter les initiatives existantes sur le devant de la scène pour leur permettre de jouer un rôle prépondérant dans la transformation des pratiques du secteur. L’objectif de ce rapport est de revenir sur les dynamiques de l’écosystème de la publicité numérique, de mettre à jour les controverses historiques et émergentes autour du rôle et de l’impact de la publicité mais également d’établir un panorama des pratiques responsables existantes et des recommandations à ce sujet. Une série d’une vingtaine d’interviews menées auprès des acteurs de la publicité numérique responsable (agences, régies publicitaires, entreprises AdTech, plateformes, acteurs de l’autorégulation, associations et chercheurs), nourrit ce rapport et nous permet également de soulever les enjeux émergents de la publicité numérique responsable pour en proposer une analyse plus approfondie.
Confronter la proposition de réglementation européenne aux incidents éthiques de l’IA
par Théo Mercadal, sous la coordinaton de Jean-Marie John-Mathews
En avril 2021, la Commission européenne a rendu public une proposition visant à réglementer l’usage de l’intelligence artificielle (IA) sur le marché européen. La démarche du présent rapport est de mettre en perspective les dispositions de la proposition à partir d’une connaissance empirique des incidents de l’IA recensés ces dernières années. Pour cela, nous nous baserons sur une base de données recensant 567 incidents éthiques en lien avec l’IA ayant eu lieu entre 2010 et 2021. Cette base a été constitue à partir des travaux de Charles Pownall et de l’Artificial Intelligence Incident Database (AIID), auxquels ont été rajoutées plusieurs métriques pour affiner l’analyse du texte européen. En mettant en parallèle les dispositions du texte avec des cas observés empiriquement en Europe et ailleurs dans le monde, le but est de déterminer si la proposition est en prise avec les pratiques réelles des acteurs de l’IA et dans quelles mesures elles peuvent être améliorées.
Les outils responsables de l'IA
par Guillaume Peltier, sous la coordinaton de Jean-Marie John-Mathews
L’intelligence artificielle est l’objet de controverses diverses et variées ces dernières années : discrimination, atteinte à la vie personnelle, faille de sécurité, etc. De nombreuses communautés académiques en Machine Learning travaillent à rendre ces algorithmes plus responsables par la création de méthode de débiaisement, d’anonymisation, etc. Dans ce rapport nous cherchons à mettre à l’épreuve les « outils de l’IA responsable ». Quelles sont leurs limites opérationnelles ? Pour cela, nous construisons un algorithme de prédiction de défaut bancaire et simulons trois types de dysfonctionnements éthiques : discrimination au genre, atteinte à la vie personnelle et faille de sécurité. En appliquant les méthodes de l’IA responsable sur ces dysfonctionnements, nous avons pu montrer un certain nombre de difficultés opérationnelles : outils peu matures, outils efficaces uniquement dans des cas très précis, coût de calcul, etc. L’application a posteriori de méthodes techniques de correction possède donc des limites. Il est nécessaire que l’approche responsable de l’IA transparaisse dans les choix organisationnels, politiques et techniques dès la phase de conception des algorithmes. Corriger les incidents de l’IA suppose d’aborder les dysfonctionnements de l’IA d’une manière holistique.