Comment repenser l'IA comme point d'appui à un monde plus juste ?
Léo-Paul Therry, étudiant M2 Sciences Po |
16/12/2020 |
La crise actuelle que traverse l’humanité aura permis à l’IA de réaffirmer sa place croissante dans nos sociétés. Parmi ses diverses applications, on trouve notamment celle faite par Facebook visant à contrecarrer les fake news répandues par son propre algorithme. Le réseau social accusé de propager de fausses informations par le biais de son IA recommandant des articles non vérifiés aux utilisateurs de la plateforme, notamment lors de l’élection de Donald Trump en 2016 et le scandale « Veles », a donc décidé de s’auto-réguler en ce mois d’avril en étiquetant pas moins de 50 millions de posts comme étant sources de désinformation. Le réseau social reconnu pour être l’un des géants des questions hi-tech affiche donc sa volonté de se conformer à une éthique de travail autour de son utilisation de l’IA et, au-delà, d’y parvenir par le biais de l’IA elle-même. Dans des sociétés où le Big Data fait désormais loi, l’intelligence artificielle joue donc un rôle croissant, voire omniprésent. Cette dernière prend différentes formes selon l’application qui en est faite : qu’elle se manifeste comme un algorithme de recommandation internet, un système de contrôle d’une voiture autonome ou encore un système de reconnaissance faciale celle-ci pose un dilemme ; elle vise au moins en apparence à soulager l’activité de l’homme et à améliorer ses conditions d’existence mais dans un même temps elle accroît les inégalités économiques, sociales et politiques du monde dans lequel nous évoluons. Alors son recours encore expérimental laisse parfois perplexe quant à la compatibilité entre notre principe humain de moral et le fonctionnement même de cette technologie se voulant plus pragmatique. C’est d’ailleurs en raison de sa jeune existence ici-bas qu’il semble pertinent d’interroger le rapport qu’entretient l’IA avec nos valeurs éthiques, il est important d’en dessiner les grandes orientations avant qu’aucun retour en arrière ne soit possible. D’autant plus que par essence, cette intelligence nouvelle a été conçue comme « point d’appui » à l’homme, c’est-à-dire qu’elle est à considérer comme un moyen avant d’être perçue comme une fin, elle doit être un outil à l’homme, il pourrait être problématique de l’oublier. La politologue Virginia Eubanks montre dans son livre Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor (2018 )que la technologie notamment à travers l’IA est génératrice d’inégalités terribles, ce qui entre en conflit avec la vision initiale de l’IA comme créatrice de meilleures conditions de vie.
Alors, de plus en plus de penseurs comme GoodinTech ou le Comité National d’Ethique en France, ou les chercheurs High Level Expert Group à l’international, tendent à affirmer ou réaffirmer le paradigme selon lequel l’IA doit être un outil à l’application positive. Elle doit respecter autant que possible 4 grand principes éthiques que sont l’autonomie, la bienfaisance, la non-malfaisance et la justice. Ce dernier critère vient rappeler que l’IA vise notamment à rendre nos sociétés plus. Si cette tendance s’affirme autant c’est qu’elle est bel et bien au cœur des débats, à un moment charnière de l’histoire de l’humanité concernant le rapport qu’elle entretient à l’IA. Si l’IA doit répondre à sa fonction première, elle se doit d’être éthique et de venir appuyer la morale humaine à laquelle elle n’est pas soumise par nature. C’est donc aux hommes qui la contrôlent de s’y soumettre et ensuite de la soumettre à cette loi supérieure universellement reconnue. Alors, dans un tel contexte « repenser » l’IA pour plus de justice ce serait à la fois la penser d’une meilleure façon qu’elle ne l’ait aujourd’hui, mais ce serait aussi la penser autrement en l’intégrant à des pans de notre société où elle n’est encore que très peu présente. Tout ceci en se prémunissant de ses éventuelles dérives. Ethiquement, le principe de justice suppose une application technologique équitable, traitant chaque individu de la même manière. Alors tendre à plus de justice c’est vouloir un monde plus égal, moins arbitraire et non-discriminant, nous allons donc voir maintenant ce que cela suppose comme orientations globales dans le traitement de l’IA dans les années à venir.
Dans un premier temps nous verrons ce qu’il faut repenser de l’IA telle qu’on la connaît actuellement, avant de s’interroger dans un deuxième temps sur les champs dans lesquels l’IA pourrait évoluer afin de tendre à plus de justice sociale. Enfin, nous constaterons que l’Homme se doit à de conserver la maîtrise de l’IA s’il ne veut pas enterrer toute forme de justice dans le futur.
I – La réalité élitiste de l’IA est actuellement une source créatrice d’injustices
Contre-pouvoirs : la France et l’UE notamment s’attèlent à contrecarrer la concurrence déloyale et le non-respect des normes territoriales par les GAFAM, comme l’a prouvé l’affaire des droits voisins concernant la non-rémunération d’acteurs de la presse numérique français par le moteur de recherche Google. Problème, le géant américain a simplement répondu par le fait qu’il ne répertorierait plus les journaux concernées s’ils souhaitaient les poursuivre en justice. Une telle asymétrie de pouvoir entre acteurs à de quoi inquiéter chaque individu qui ne souhaite pas voir son futur dicté par une poignée de titans de l’high tech.
Au-delà, cette collecte de données permanente pose un autre problème, à l’image des caméras à reconnaissances faciales utilisées en Chine pour entretenir un système de social ranking. Cette vision complètement utilitariste et très pragmatique de la vie en société pose des questions quant à la définition même de justice dont relève une telle pratique. Certes on peut voir une manière de traiter chaque citoyen en fonction de ses propres agissements mais on en vient à toucher à un pan essentiel du caractère humain : le libre-arbitre. Ces pratiques interrogent, si bien que la pop culture se les approprient de plus en plus, à l’image de Black Mirror qui interroge un tel système (« Nosedive » saison 3, épisode 1) ou plus récemment de la saison 3 de Westworld où l’on voit deux entreprises privées Delos et Insight collectant des données à des fins personnelles pour mener à bien leurs projets respectifs. L’un de ses projets vise à se débarrasser de toute forme de déviance dans la société et à enfermer les hommes restants dans un déterminisme froid qui régirait leur destinée, étant réduit à errer sur Terre de façon grégaire : un scénario qui laisse entrevoir une survie de l’espèce humaine condamnée à une absence d’humanité. Certes, ces dystopies n’ont pas valeur d’exemple, mais leur succès a le mérite de montrer que de telles questions inspirées de notre réalité interrogent et suscitent de façon croissante la curiosité des citoyens et des pouvoirs publics. En attestent le rapport demandé par Obama sur le Big Data en 2016 par exemple. Le problème dépasse très largement le simple fantasme de scénaristes amateurs de sciences fictions, qui en extrapolant la réalité informent malgré tout sur la tournure que celle-ci pourrait prendre si elle suivait un schéma catastrophiste.
Contre-pouvoirs : La législation tend à essayer de rééquilibrer ce rapport de force complètement déloyal ces dernières années. Le cas le plus symptomatique est celui de la RGPD appliquée depuis le 25 mai 2018 à l’échelle européenne afin de renforcer la protection des données privées. Face au manque de pouvoir réel quant à la limitation du champs d’action des GAFAM, la RGPD a au moins le mérite de renforcer le niveau de connaissance des individus quant au traitement qui est fait de leurs données. On n’atteint évidemment pas un modèle juste, mais celui-ci est déjà plus loyal. C’est en ce sens de vulgarisation qu’il faut continuer d’aller, les citoyens ne peuvent plus être passifs. La loi Bruno Lemaire pour une République Numérique adoptée en 2016 vient appuyer cette notion de loyauté digitale. Les institutions publiques restent pour l’heure un des seuls garde-fou à pouvoir garantir un minimum de protection. Dans le domaine privée, il est du devoir moral de chaque entreprise d’appliquer une expertise éthique à chaque introduction technologique, afin d’honorer son devoir d’accountability. Chacun peut donc œuvrer à son échelle dès lors qu’il dispose d’un cadre légal protecteur et d’informations suffisantes permettant la compréhension des avantages et défauts des modes d’applications de l’IA concernant l’usage des données personnelles.
Tout d’abord, l’usage des algorithmes de recommandations ne met pas assez en valeur certains maillons de le chaîne de valeur. Par exemple le modèle de Netflix est problématique dans le secteur culturel puisque les films produits par Netflix sont fortement brandés au détriment du travail artistique et d’un point de vue général, les réalisateurs au travail présent sur la plateforme voient leur nom très peu mis en avant. L’option qui incite à passer les génériques des contenus est également injuste vis-à-vis du travail technique et artistique réalisé en amont par les équipes de films et séries.
Par ailleurs, la large diffusion des algorithmes est problématique pour les citoyens directement. En effet, ceux-ci intègrent des biais de sélection et de perception qui contraignent l’individu a des comportements réflexifs (le clic automatique sur le contenu proposé limite la découverte de contenus de nature inédite, le filtre du contenu incite à penser que notre opinion est dominante du fait de la convergence des statuts similaires). Ainsi, l’algorithme enferme, cloisonne le comportement puis la pensée des individus selon son historique (on tente de rationnaliser l’homme comme un être simple aux schémas répétitifs), limitant leur réflexion, leur complexité et leur ouverture d’esprit, ce qui peut devenir un problème sociétal. C’est ce que l’auteur Eli Pariser nommera « l’effet bulle de filtre » dans un ouvrage éponyme en 2011. Ce problème de standardisation et d’orientation de l’information est donc aussi bien problématique dans le domaine politique que dans l’industrie culturelle et ne cesse de croître avec l’usage des réseaux sociaux. Enfin, ces algorithmes peuvent même être discriminants, ce qui pos eun réel problème d’équité sociale. Un article de Science montre en 2019 que plusieurs systèmes d’assurance santé aux USA voient leur algorithmes prescrire moins d’aides aux populations noires pourtant factuellement plus souvent malades. Toujours aux Etats-Unis, Virginia Eubanks dénoncent cette absence de neutralité de la part de divers programmes sociaux à travers le pays.
Contre-pouvoirs : Pour autant Virginia Eubanks interviewée par le festival de l’innovation numérique et durable Futur.e.s en juin 2018 incite à la mesure de nos propos concernant les systèmes algorithmiques dont on a l’habitude de survendre les mérites : « lorsque nous écrivons et parlons de ces systèmes, nous pouvons les rendre plus complexes qu’ils ne le sont réellement. Et je pense que c’est un problème parce que cela empêche les gens normaux comme moi – je ne suis pas une data scientist ! – de comprendre ces outils. ». Là encore il est possible d’agir à plusieurs échelles. En France les pouvoirs publics ont commencé à aller dans ce sens, avec la transparence de l’algorithme relatif aux choix d’orientation sur Parcoursup par exemple. Sensibiliser la population sur ces problématique pourrait être bénéfique, cela permettrait de prendre conscience de l’enfermement de la pensée auquel nous sommes soumis et de revoir sa consommation digitale. Des alternatives proposant des contenus moins ciblés sont en effet disponibles (MUBI pour les plateformes OTT, Ecosia dans son système de référencement par rapport à Google…). Plus drastique, des outils tels qu’add-block permettent de faire le choix de rester un peu plus en dehors de cette logique qui dépossède l’individu de son libre-arbitre et de la pluralité d’information. Certains acteurs privés qui profitent de cette asymétrie d’information comme Facebook commencent à œuvrer pour une vulgarisation partielle du fonctionnement de leur algorithme auprès de ses utilisateurs.
Cependant, il serait tout à fait erroné de rejeter arbitrairement les nouvelles technologies liées à l’IA, leur appréhension aussi doit être juste. En ce sens elles pourraient même avoir des répercussions sociales positives si on en venait à leur laisser leur chance dans certains domaines.
II – Elargir l’application de l’IA dans une logique de justice sociale
Si aspirer à une société de demain plus juste repose sur un système judiciaire plus fiable et plus efficace, cela repose aussi sur l’optimisation d’autres services publics qui viendrait appuyer un idéal de justice social.
Alors, si l’IA peut tendre à repenser les rapports hiérarchiques qui clivent la société et conférer ainsi plus de justice sociale, elle induit cependant la création d’un nouveau rapport inégalitaire à prendre en compte pour les années à venir, celui entre l’homme et la machine… Si aujourd’hui le problème de nos sociétés réside dans le fait qu’elles soient inégales et que les géants de l’IA, malgré leurs projets philanthropes - tout du moins en façade - s’accaparent le pouvoir, cela pourrait être bien pire demain si le développement global de l’IA comme technologie et non comme outil n’est pas surveillé.
III – L’Homme doit se rendre comme maître et possesseur de l’IA s’il ne veut pas perdre sa nature
Pour conclure, nous avons vu que repenser l’IA inclut plusieurs réflexions, tant sur son exploitation actuelle, celle qu’elle pourrait suivre dans les années à venir ou encore sur les dangers auxquels elle devra faire face. A ce propos, de nombreux acteurs publics comme privés, que ce soient des instituts, des groupes de penseurs ou bien des start-ups participent de plus en plus à cette question de redéfinition de l’IA pour l’intégrer à une pensée éthique qui mette l’accent sur l’orientation de nos sociétés vers plus de justice. Leur action passe aussi bien par la mise en place de contre-pouvoirs (tant règlementaires que pédagogiques en visant à informer les citoyens) limitant l’injustice que par l’offre d’alternatives repensant l’IA comme plus respectueuses de ce principe de justice. Enfin, il semble important de préciser que pour que cette utopie d’un monde juste ait du sens, elle suppose de ne pas implanter l’IA et la technologie dans tous les compartiments de nos modes de vie. Pour que la notion même de justice fasse sens, l’espèce humaine doit préserver une part de son humanité, se laisser dominer par une technologie envahissante rendrait absurde tout combat pour la maintien d’une éthique surplombante. Tout l’enjeu reste de savoir quelles limites poser et quelle système de gouvernance adviendra dans les années à venir afin de donner les impulsions politiques nécessaires à une meilleure application possible du principe de justice dans nos
sociétés.
Alors, de plus en plus de penseurs comme GoodinTech ou le Comité National d’Ethique en France, ou les chercheurs High Level Expert Group à l’international, tendent à affirmer ou réaffirmer le paradigme selon lequel l’IA doit être un outil à l’application positive. Elle doit respecter autant que possible 4 grand principes éthiques que sont l’autonomie, la bienfaisance, la non-malfaisance et la justice. Ce dernier critère vient rappeler que l’IA vise notamment à rendre nos sociétés plus. Si cette tendance s’affirme autant c’est qu’elle est bel et bien au cœur des débats, à un moment charnière de l’histoire de l’humanité concernant le rapport qu’elle entretient à l’IA. Si l’IA doit répondre à sa fonction première, elle se doit d’être éthique et de venir appuyer la morale humaine à laquelle elle n’est pas soumise par nature. C’est donc aux hommes qui la contrôlent de s’y soumettre et ensuite de la soumettre à cette loi supérieure universellement reconnue. Alors, dans un tel contexte « repenser » l’IA pour plus de justice ce serait à la fois la penser d’une meilleure façon qu’elle ne l’ait aujourd’hui, mais ce serait aussi la penser autrement en l’intégrant à des pans de notre société où elle n’est encore que très peu présente. Tout ceci en se prémunissant de ses éventuelles dérives. Ethiquement, le principe de justice suppose une application technologique équitable, traitant chaque individu de la même manière. Alors tendre à plus de justice c’est vouloir un monde plus égal, moins arbitraire et non-discriminant, nous allons donc voir maintenant ce que cela suppose comme orientations globales dans le traitement de l’IA dans les années à venir.
Dans un premier temps nous verrons ce qu’il faut repenser de l’IA telle qu’on la connaît actuellement, avant de s’interroger dans un deuxième temps sur les champs dans lesquels l’IA pourrait évoluer afin de tendre à plus de justice sociale. Enfin, nous constaterons que l’Homme se doit à de conserver la maîtrise de l’IA s’il ne veut pas enterrer toute forme de justice dans le futur.
I – La réalité élitiste de l’IA est actuellement une source créatrice d’injustices
- GAFAM – BATX : la suprématie des acteurs de l’IA
Contre-pouvoirs : la France et l’UE notamment s’attèlent à contrecarrer la concurrence déloyale et le non-respect des normes territoriales par les GAFAM, comme l’a prouvé l’affaire des droits voisins concernant la non-rémunération d’acteurs de la presse numérique français par le moteur de recherche Google. Problème, le géant américain a simplement répondu par le fait qu’il ne répertorierait plus les journaux concernées s’ils souhaitaient les poursuivre en justice. Une telle asymétrie de pouvoir entre acteurs à de quoi inquiéter chaque individu qui ne souhaite pas voir son futur dicté par une poignée de titans de l’high tech.
- Le Big Data : risque de violation de l’intimité des individus et menace du libre-arbitre
Au-delà, cette collecte de données permanente pose un autre problème, à l’image des caméras à reconnaissances faciales utilisées en Chine pour entretenir un système de social ranking. Cette vision complètement utilitariste et très pragmatique de la vie en société pose des questions quant à la définition même de justice dont relève une telle pratique. Certes on peut voir une manière de traiter chaque citoyen en fonction de ses propres agissements mais on en vient à toucher à un pan essentiel du caractère humain : le libre-arbitre. Ces pratiques interrogent, si bien que la pop culture se les approprient de plus en plus, à l’image de Black Mirror qui interroge un tel système (« Nosedive » saison 3, épisode 1) ou plus récemment de la saison 3 de Westworld où l’on voit deux entreprises privées Delos et Insight collectant des données à des fins personnelles pour mener à bien leurs projets respectifs. L’un de ses projets vise à se débarrasser de toute forme de déviance dans la société et à enfermer les hommes restants dans un déterminisme froid qui régirait leur destinée, étant réduit à errer sur Terre de façon grégaire : un scénario qui laisse entrevoir une survie de l’espèce humaine condamnée à une absence d’humanité. Certes, ces dystopies n’ont pas valeur d’exemple, mais leur succès a le mérite de montrer que de telles questions inspirées de notre réalité interrogent et suscitent de façon croissante la curiosité des citoyens et des pouvoirs publics. En attestent le rapport demandé par Obama sur le Big Data en 2016 par exemple. Le problème dépasse très largement le simple fantasme de scénaristes amateurs de sciences fictions, qui en extrapolant la réalité informent malgré tout sur la tournure que celle-ci pourrait prendre si elle suivait un schéma catastrophiste.
Contre-pouvoirs : La législation tend à essayer de rééquilibrer ce rapport de force complètement déloyal ces dernières années. Le cas le plus symptomatique est celui de la RGPD appliquée depuis le 25 mai 2018 à l’échelle européenne afin de renforcer la protection des données privées. Face au manque de pouvoir réel quant à la limitation du champs d’action des GAFAM, la RGPD a au moins le mérite de renforcer le niveau de connaissance des individus quant au traitement qui est fait de leurs données. On n’atteint évidemment pas un modèle juste, mais celui-ci est déjà plus loyal. C’est en ce sens de vulgarisation qu’il faut continuer d’aller, les citoyens ne peuvent plus être passifs. La loi Bruno Lemaire pour une République Numérique adoptée en 2016 vient appuyer cette notion de loyauté digitale. Les institutions publiques restent pour l’heure un des seuls garde-fou à pouvoir garantir un minimum de protection. Dans le domaine privée, il est du devoir moral de chaque entreprise d’appliquer une expertise éthique à chaque introduction technologique, afin d’honorer son devoir d’accountability. Chacun peut donc œuvrer à son échelle dès lors qu’il dispose d’un cadre légal protecteur et d’informations suffisantes permettant la compréhension des avantages et défauts des modes d’applications de l’IA concernant l’usage des données personnelles.
- L’usage opaque des algorithmes est producteur d’inégalités
Tout d’abord, l’usage des algorithmes de recommandations ne met pas assez en valeur certains maillons de le chaîne de valeur. Par exemple le modèle de Netflix est problématique dans le secteur culturel puisque les films produits par Netflix sont fortement brandés au détriment du travail artistique et d’un point de vue général, les réalisateurs au travail présent sur la plateforme voient leur nom très peu mis en avant. L’option qui incite à passer les génériques des contenus est également injuste vis-à-vis du travail technique et artistique réalisé en amont par les équipes de films et séries.
Par ailleurs, la large diffusion des algorithmes est problématique pour les citoyens directement. En effet, ceux-ci intègrent des biais de sélection et de perception qui contraignent l’individu a des comportements réflexifs (le clic automatique sur le contenu proposé limite la découverte de contenus de nature inédite, le filtre du contenu incite à penser que notre opinion est dominante du fait de la convergence des statuts similaires). Ainsi, l’algorithme enferme, cloisonne le comportement puis la pensée des individus selon son historique (on tente de rationnaliser l’homme comme un être simple aux schémas répétitifs), limitant leur réflexion, leur complexité et leur ouverture d’esprit, ce qui peut devenir un problème sociétal. C’est ce que l’auteur Eli Pariser nommera « l’effet bulle de filtre » dans un ouvrage éponyme en 2011. Ce problème de standardisation et d’orientation de l’information est donc aussi bien problématique dans le domaine politique que dans l’industrie culturelle et ne cesse de croître avec l’usage des réseaux sociaux. Enfin, ces algorithmes peuvent même être discriminants, ce qui pos eun réel problème d’équité sociale. Un article de Science montre en 2019 que plusieurs systèmes d’assurance santé aux USA voient leur algorithmes prescrire moins d’aides aux populations noires pourtant factuellement plus souvent malades. Toujours aux Etats-Unis, Virginia Eubanks dénoncent cette absence de neutralité de la part de divers programmes sociaux à travers le pays.
Contre-pouvoirs : Pour autant Virginia Eubanks interviewée par le festival de l’innovation numérique et durable Futur.e.s en juin 2018 incite à la mesure de nos propos concernant les systèmes algorithmiques dont on a l’habitude de survendre les mérites : « lorsque nous écrivons et parlons de ces systèmes, nous pouvons les rendre plus complexes qu’ils ne le sont réellement. Et je pense que c’est un problème parce que cela empêche les gens normaux comme moi – je ne suis pas une data scientist ! – de comprendre ces outils. ». Là encore il est possible d’agir à plusieurs échelles. En France les pouvoirs publics ont commencé à aller dans ce sens, avec la transparence de l’algorithme relatif aux choix d’orientation sur Parcoursup par exemple. Sensibiliser la population sur ces problématique pourrait être bénéfique, cela permettrait de prendre conscience de l’enfermement de la pensée auquel nous sommes soumis et de revoir sa consommation digitale. Des alternatives proposant des contenus moins ciblés sont en effet disponibles (MUBI pour les plateformes OTT, Ecosia dans son système de référencement par rapport à Google…). Plus drastique, des outils tels qu’add-block permettent de faire le choix de rester un peu plus en dehors de cette logique qui dépossède l’individu de son libre-arbitre et de la pluralité d’information. Certains acteurs privés qui profitent de cette asymétrie d’information comme Facebook commencent à œuvrer pour une vulgarisation partielle du fonctionnement de leur algorithme auprès de ses utilisateurs.
Cependant, il serait tout à fait erroné de rejeter arbitrairement les nouvelles technologies liées à l’IA, leur appréhension aussi doit être juste. En ce sens elles pourraient même avoir des répercussions sociales positives si on en venait à leur laisser leur chance dans certains domaines.
II – Elargir l’application de l’IA dans une logique de justice sociale
- Un système juridique plus performant pour un monde plus juste
Si aspirer à une société de demain plus juste repose sur un système judiciaire plus fiable et plus efficace, cela repose aussi sur l’optimisation d’autres services publics qui viendrait appuyer un idéal de justice social.
- L’IA se préoccupe de la santé des individus
- Repenser l’éducation pour réduire la plus grande des inégalités
Alors, si l’IA peut tendre à repenser les rapports hiérarchiques qui clivent la société et conférer ainsi plus de justice sociale, elle induit cependant la création d’un nouveau rapport inégalitaire à prendre en compte pour les années à venir, celui entre l’homme et la machine… Si aujourd’hui le problème de nos sociétés réside dans le fait qu’elles soient inégales et que les géants de l’IA, malgré leurs projets philanthropes - tout du moins en façade - s’accaparent le pouvoir, cela pourrait être bien pire demain si le développement global de l’IA comme technologie et non comme outil n’est pas surveillé.
III – L’Homme doit se rendre comme maître et possesseur de l’IA s’il ne veut pas perdre sa nature
- Perfectionner l’IA avant son déploiement massif
- L’utilité de l’Homme contestée
Pour conclure, nous avons vu que repenser l’IA inclut plusieurs réflexions, tant sur son exploitation actuelle, celle qu’elle pourrait suivre dans les années à venir ou encore sur les dangers auxquels elle devra faire face. A ce propos, de nombreux acteurs publics comme privés, que ce soient des instituts, des groupes de penseurs ou bien des start-ups participent de plus en plus à cette question de redéfinition de l’IA pour l’intégrer à une pensée éthique qui mette l’accent sur l’orientation de nos sociétés vers plus de justice. Leur action passe aussi bien par la mise en place de contre-pouvoirs (tant règlementaires que pédagogiques en visant à informer les citoyens) limitant l’injustice que par l’offre d’alternatives repensant l’IA comme plus respectueuses de ce principe de justice. Enfin, il semble important de préciser que pour que cette utopie d’un monde juste ait du sens, elle suppose de ne pas implanter l’IA et la technologie dans tous les compartiments de nos modes de vie. Pour que la notion même de justice fasse sens, l’espèce humaine doit préserver une part de son humanité, se laisser dominer par une technologie envahissante rendrait absurde tout combat pour la maintien d’une éthique surplombante. Tout l’enjeu reste de savoir quelles limites poser et quelle système de gouvernance adviendra dans les années à venir afin de donner les impulsions politiques nécessaires à une meilleure application possible du principe de justice dans nos
sociétés.
Derniers articles
Partager en ligne