Comment repenser l'IA comme point d'appui à un monde plus juste ?

Léo-Paul Therry, étudiant M2 Sciences Po

16/12/2020

La crise actuelle que traverse l’humanité aura permis à l’IA de réaffirmer sa place croissante dans nos sociétés. Parmi ses diverses applications, on trouve notamment celle faite par Facebook visant à contrecarrer les fake news répandues par son propre algorithme. Le réseau social accusé de propager de fausses informations par le biais de son IA recommandant des articles non vérifiés aux utilisateurs de la plateforme, notamment lors de l’élection de Donald Trump en 2016 et le scandale « Veles », a donc décidé de s’auto-réguler en ce mois d’avril en étiquetant pas moins de 50 millions de posts comme étant sources de désinformation. Le réseau social reconnu pour être l’un des géants des questions hi-tech affiche donc sa volonté de se conformer à une éthique de travail autour de son utilisation de l’IA et, au-delà, d’y parvenir par le biais de l’IA elle-même. Dans des sociétés où le Big Data fait désormais loi, l’intelligence artificielle joue donc un rôle croissant, voire omniprésent. Cette dernière prend différentes formes selon l’application qui en est faite : qu’elle se manifeste comme un algorithme de recommandation internet, un système de contrôle d’une voiture autonome ou encore un système de reconnaissance faciale celle-ci pose un dilemme ; elle vise au moins en apparence à soulager l’activité de l’homme et à améliorer ses conditions d’existence mais dans un même temps elle accroît les inégalités économiques, sociales et politiques du monde dans lequel nous évoluons. Alors son recours encore expérimental laisse parfois perplexe quant à la compatibilité entre notre principe humain de moral et le fonctionnement même de cette technologie se voulant plus pragmatique. C’est d’ailleurs en raison de sa jeune existence ici-bas qu’il semble pertinent d’interroger le rapport qu’entretient l’IA avec nos valeurs éthiques, il est important d’en dessiner les grandes orientations avant qu’aucun retour en arrière ne soit possible. D’autant plus que par essence, cette intelligence nouvelle a été conçue comme « point d’appui » à l’homme, c’est-à-dire qu’elle est à considérer comme un moyen avant d’être perçue comme une fin, elle doit être un outil à l’homme, il pourrait être problématique de l’oublier. La politologue Virginia Eubanks montre dans son livre Automating Inequality: How High-Tech Tools Profile, Police, and Punish the Poor (2018 )que la technologie notamment à travers l’IA est génératrice d’inégalités terribles, ce qui entre en conflit avec la vision initiale de l’IA comme créatrice de meilleures conditions de vie.

Alors, de plus en plus de penseurs comme GoodinTech ou le Comité National d’Ethique en France, ou les chercheurs High Level Expert Group à l’international, tendent à affirmer ou réaffirmer le paradigme selon lequel l’IA doit être un outil à l’application positive. Elle doit respecter autant que possible 4 grand principes éthiques que sont l’autonomie, la bienfaisance, la non-malfaisance et la justice. Ce dernier critère vient rappeler que l’IA vise notamment à rendre nos sociétés plus. Si cette tendance s’affirme autant c’est qu’elle est bel et bien au cœur des débats, à un moment charnière de l’histoire de l’humanité concernant le rapport qu’elle entretient à l’IA.  Si l’IA doit répondre à sa fonction première, elle se doit d’être éthique et de venir appuyer la morale humaine à laquelle elle n’est pas soumise par nature. C’est donc aux hommes qui la contrôlent de s’y soumettre et ensuite de la soumettre à cette loi supérieure universellement reconnue. Alors, dans un tel contexte « repenser » l’IA pour plus de justice ce serait à la fois la penser d’une meilleure façon qu’elle ne l’ait aujourd’hui, mais ce serait aussi la penser autrement en l’intégrant à des pans de notre société où elle n’est encore que très peu présente. Tout ceci en se prémunissant de ses éventuelles dérives. Ethiquement, le principe de justice suppose une application technologique équitable, traitant chaque individu de la même manière. Alors tendre à plus de justice c’est vouloir un monde plus égal, moins arbitraire et non-discriminant, nous allons donc voir maintenant ce que cela suppose comme orientations globales dans le traitement de l’IA dans les années à venir.                                 

Dans un premier temps nous verrons ce qu’il faut repenser de l’IA telle qu’on la connaît actuellement, avant de s’interroger dans un deuxième temps sur les champs dans lesquels l’IA pourrait évoluer afin de tendre à plus de justice sociale. Enfin, nous constaterons que l’Homme se doit à de conserver la maîtrise de l’IA s’il ne veut pas enterrer toute forme de justice dans le futur.


I – La réalité élitiste de l’IA est actuellement une source créatrice d’injustices
  1. GAFAM – BATX : la suprématie des acteurs de l’IA
L’un des problèmes majeurs de notre temps repose sur le fait que les géants de l’IA se muent de façon exponentielle en acteurs hégémoniques à la force de frappe démesurée. Avec les GAFAM aux Etats-Unis un modèle supra-étatique est en train d’éclore et de déstabiliser l’équilibre mondial. Pourtant la plupart d’entre eux sont des spécialistes de l’IA (Google avec Calico, Facebook avec Yann LeCun), une technologie qui devrait tendre à plus d’équité rappelons-le. Le même phénomène est à l’œuvre en Chine du côté des BATX qui ont fait le choix de l’IA avec Alibaba comme pionnier. Un tel essor redistribue les cartes de l’ordre mondial mais nous éloigne un peu plus du modèle démocratique. L’IA en étant concentrée dans un petit nombre d’acteurs à la puissance colossale fait donc l’objet de conflits d’intérêts à la fois économiques et politiques renforçant les initiatives et les pratiques biaisées et cyniques. La réalité aujourd’hui, c’est que l’IA permet à ses géants de générer toujours plus de profit en aggravant les inégalités à travers le monde. Le futur est en train d’être imaginé par une pignée d’acteurs encore plus infime qu’auparavant. Au-delà d’un monde qui ne tend pas vers la justice, la quasi-immunité des GAFAM et des BATX nous oriente vers un monde encore plus injuste que celui que nous connaissons. Sans compter qu’en plus de la manne financière, ces acteurs disposent d’une autre arme encore plus puissante : la collecte des données personnelles.

Contre-pouvoirs : la France et l’UE notamment s’attèlent à contrecarrer la concurrence déloyale et le non-respect des normes territoriales par les GAFAM, comme l’a prouvé l’affaire des droits voisins concernant la non-rémunération d’acteurs de la presse numérique français par le moteur de recherche Google. Problème, le géant américain a simplement répondu par le fait qu’il ne répertorierait plus les journaux concernées s’ils souhaitaient les poursuivre en justice. Une telle asymétrie de pouvoir entre acteurs à de quoi inquiéter chaque individu qui ne souhaite pas voir son futur dicté par  une poignée de titans de l’high tech.
  1. Le Big Data : risque de violation de l’intimité des individus et menace du libre-arbitre
Aujourd’hui, la Big Data questionne par la façon avec laquelle elle est utilisée, c’est-à-dire à des fins économiques et surtout politiques qui viennent renforcer l’avantage concurrentielle de ceux qui maîtrisent l’IA. En effet, le modèle biface des géants de l’high tech tel que Google est dérangeant, en donnant accès à des informations publiques l’entreprise californienne collecte les données privées de ses utilisateurs. On est face à un problème évident d’asymétrie du pouvoir et de manipulation des individus. Le rapport de domination est tel aujourd’hui que l’on ne peut que subir passivement la collecte de nos propres données et ce que cela encourt. Le nombre croissant de machines par rapport au nombre d’humais donne à réfléchir quand on sait que celles-ci génèrent et collectent des données en permanence.  Ces géants du numérique peuvent contrôler notre comportement virtuel en permanence par le biais du traçage numérique, ce qui leur permet d’une part de nous noyer d’incitations consuméristes ciblées, ce qui pose déjà un problème éthique, et d’autre part de pouvoir disposer d’informations personnelles voire compromettantes sur chacun d’entre nous. Des informations qui peuvent se monnayer afin d’être exploitées de manière plus ou moins légales et respectueuses de l’intégrité de certains individus concernés. A ce propos plusieurs leakage ont déjà eu lieu, le plus célèbre en date étant celui qui lie Facebook à Cambridge Analytica rappelant à chacun qu’une telle concentration d’informations pouvait s’avérer d’autant plus problématique qu’en cas de hack ou autre manque de maîtrise technologique, leur diffusion se ferait à vitesse grand V et concernerait une très grande partie de l’humanité.     

Au-delà, cette collecte de données permanente pose un autre problème, à l’image des caméras à reconnaissances faciales utilisées en Chine pour entretenir un système de social ranking. Cette vision complètement utilitariste et très pragmatique de la vie en société pose des questions quant à la définition même de justice dont relève une telle pratique. Certes on peut voir une manière de traiter chaque citoyen en fonction de ses propres agissements mais on en vient à toucher à un pan essentiel du caractère humain : le libre-arbitre. Ces pratiques interrogent, si bien que la pop culture se les approprient de plus en plus, à l’image de Black Mirror qui interroge un tel système (« Nosedive » saison 3, épisode 1) ou plus récemment de la saison 3 de Westworld où l’on voit deux entreprises privées Delos et Insight collectant des données à des fins personnelles pour mener à bien leurs projets respectifs. L’un de ses projets vise à se débarrasser de toute forme de déviance dans la société et à enfermer les hommes restants dans un déterminisme froid qui régirait leur destinée, étant réduit à errer sur Terre de façon grégaire : un scénario qui laisse entrevoir une survie de l’espèce humaine condamnée à une absence d’humanité. Certes, ces dystopies n’ont pas valeur d’exemple, mais leur succès a le mérite de montrer que de telles questions inspirées de notre réalité interrogent et suscitent de façon croissante la curiosité des citoyens et des pouvoirs publics. En attestent le rapport demandé par Obama sur le Big Data en 2016 par exemple. Le problème dépasse très largement le simple fantasme de scénaristes amateurs de sciences fictions, qui en extrapolant la réalité informent malgré tout sur la tournure que celle-ci pourrait prendre si elle suivait un schéma catastrophiste.

Contre-pouvoirs : La législation tend à essayer de rééquilibrer ce rapport de force complètement déloyal ces dernières années. Le cas le plus symptomatique est celui de la RGPD appliquée depuis le 25 mai 2018 à l’échelle européenne afin de renforcer la protection des données privées. Face au manque de pouvoir réel quant à la limitation du champs d’action des GAFAM, la RGPD a au moins le mérite de renforcer le niveau de connaissance des individus quant au traitement qui est fait de leurs données. On n’atteint évidemment pas un modèle juste, mais celui-ci est déjà plus loyal. C’est en ce sens de vulgarisation qu’il faut continuer d’aller, les citoyens ne peuvent plus être passifs. La loi Bruno Lemaire pour une République Numérique adoptée en 2016 vient appuyer cette notion de loyauté digitale. Les institutions publiques restent pour l’heure un des seuls garde-fou à pouvoir garantir un minimum de protection. Dans le domaine privée, il est du devoir moral de chaque entreprise d’appliquer une expertise éthique à chaque introduction technologique, afin d’honorer son devoir d’accountability. Chacun peut donc œuvrer à son échelle dès lors qu’il dispose d’un cadre légal protecteur et d’informations suffisantes permettant la compréhension des avantages et défauts des modes d’applications de l’IA concernant l’usage des données personnelles.
  1. L’usage opaque des algorithmes est producteur d’inégalités
Une fois encore, une autre application largement répandue de l’intelligence artificielle, celle de l’algorithme de recommandations pose problèmes puisqu’elle hiérarchise les acteurs et influe l’orientation du schéma de pensées des individus connectés.

Tout d’abord, l’usage des algorithmes de recommandations ne met pas assez en valeur certains maillons de le chaîne de valeur. Par exemple le modèle de Netflix est problématique dans le secteur culturel puisque les films produits par Netflix sont fortement brandés au détriment du travail artistique et d’un point de vue général, les réalisateurs au travail présent sur la plateforme voient leur nom très peu mis en avant. L’option qui incite à passer les génériques des contenus est également injuste vis-à-vis du travail technique et artistique réalisé en amont par les équipes de films et séries.                                                                                         
Par ailleurs, la large diffusion des algorithmes est problématique pour les citoyens directement. En effet, ceux-ci intègrent des biais de sélection et de perception qui contraignent l’individu a des comportements réflexifs (le clic automatique sur le contenu proposé limite la découverte de contenus de nature inédite, le filtre du contenu incite à penser que notre opinion est dominante du fait de la convergence des statuts similaires). Ainsi, l’algorithme enferme, cloisonne le comportement puis la pensée des individus selon son historique (on tente de rationnaliser l’homme comme un être simple aux schémas répétitifs), limitant leur réflexion, leur complexité et leur ouverture d’esprit, ce qui peut devenir un problème sociétal. C’est ce que l’auteur Eli Pariser nommera « l’effet bulle de filtre » dans un ouvrage éponyme en 2011. Ce problème de standardisation et d’orientation de l’information est donc aussi bien problématique dans le domaine politique que dans l’industrie culturelle et ne cesse de croître avec l’usage des réseaux sociaux.
Enfin, ces algorithmes peuvent même être discriminants, ce qui pos eun réel problème d’équité sociale. Un article de Science montre en 2019 que plusieurs systèmes d’assurance santé aux USA voient leur algorithmes prescrire moins d’aides aux populations noires pourtant factuellement plus souvent malades. Toujours aux Etats-Unis, Virginia Eubanks dénoncent cette absence de neutralité de la part de divers programmes sociaux à travers le pays.


Contre-pouvoirs
 : Pour autant Virginia Eubanks interviewée par le festival de l’innovation numérique et durable Futur.e.s en juin 2018 incite à la mesure de nos propos concernant les systèmes algorithmiques dont on a l’habitude de survendre les mérites : « lorsque nous écrivons et parlons de ces systèmes, nous pouvons les rendre plus complexes qu’ils ne le sont réellement. Et je pense que c’est un problème parce que cela empêche les gens normaux comme moi – je ne suis pas une data scientist ! – de comprendre ces outils. ». Là encore il est possible d’agir à plusieurs échelles. En France les pouvoirs publics ont commencé à aller dans ce sens, avec la transparence de l’algorithme relatif aux choix d’orientation sur Parcoursup par exemple. Sensibiliser la population sur ces problématique pourrait être bénéfique, cela permettrait de prendre conscience de l’enfermement de la pensée auquel nous sommes soumis et de revoir sa consommation digitale. Des alternatives proposant des contenus moins ciblés sont en effet disponibles (MUBI pour les plateformes OTT, Ecosia dans son système de référencement par rapport à Google…). Plus drastique, des outils tels qu’add-block permettent de faire le choix de rester un peu plus en dehors de cette logique qui dépossède l’individu de son libre-arbitre et de la pluralité d’information.  Certains acteurs privés qui profitent de cette asymétrie d’information comme Facebook commencent à œuvrer pour une vulgarisation partielle du fonctionnement de leur algorithme auprès de ses utilisateurs.

Cependant, il serait tout à fait erroné de rejeter arbitrairement les nouvelles technologies liées à l’IA, leur appréhension aussi doit être juste. En ce sens elles pourraient même avoir des répercussions sociales positives si on en venait à leur laisser leur chance dans certains domaines.

II – Elargir l’application de l’IA dans une logique de justice sociale
  1. Un système juridique plus performant pour un monde plus juste
Si l’on aspire à construire un monde plus juste, il va de soi qu’il est nécessaire de s’intéresser au domaine de la justice. Depuis des siècles, celle-ci souffre de deux accusations persistantes, elle est à la fois trop lente et trop biaisée. A l’heure où l’intelligence artificielle est là pour soulager l’homme de certaines tâches en l’assistant, celle-ci pourrait pallier ses problèmes de rapidité et de subjectivité. L’introduction de l’IA dans le domaine de la justice est au cœur des débats, si elle a déjà été partiellement introduite au Canada et à la Cour Suprême écossais dès 1990 avec le Sentencing Information System (SIS) et qu’elle est utilisée dans certaines juridictions aux Etats-Unis (avec le logiciel Compas de manière marginale), en France son recours n’est pas aussi bien accueilli. On a en effet du mal à faire confiance au jugement d’une entité robotisée aujourd’hui mais au-delà cela pose un problème philosophique puisque le principe même de la justice repose sur l’individualisation de chaque cas traité par le juge, ce que l’IA viendrait dénaturer par son absence de sensibilité et son traitement effréné de l’information. Justement, l’IA pourrait permettre de rééquilibrer le rapport de force au sein de chaque jugement reposant sur l’autonomie du juge en tant que décisionnaire. Cela permettrait plus d’impartialité, et effacerait toute forme de jugement à caractère personnel pouvant émaner d’un juge socialement déterminé (par son éducation, sa culture, ou même son expérience personnelle) . Tout va dépendre pour ce point du sens que l’humanité va vouloir donner à la justice par la suite, si sa signification est orientée vers une rationalisation et une dépersonnalisation alors l’IA est une solution tout à fait inédite et pertinente. En ce sens l’étude “Predicting Judicial Decisions of the European Court of Human Rights : A Natural Language Processing Perspective” menée par PeerJ Computer Science en 2016 a montré que suite à l’absorption de la jurisprudence de 500 décisions rendues par la Cour Européenne des Droits de l’Homme, un algorithme a rendu des jugements dans des cas précis qui sont conformes dans environ 80% des cas à la décision effectivement prise par les juges. Cela suppose d’octroyer à l’IA une certaine indépendance. Cependant, en conservant une vision actuelle de la justice, l’IA ne pourrait être cantonnée qu’à des fonctions de traitement de données et non à un rôle de décisionnaire. Elle peut faire office d’aide à la décision, fonctionnant comme un outil pour les justiciables à l’aide de sa base de données. Aux Etats-Unis, l’IA est déjà utilisée pour de la collecte de données concernant les précédents judiciaires et la création de barèmes appliqués aux contentieux civils. A mi-chemin entre ces deux visions de la justice et la place accordée à l’IA on retrouve l’idéal de « justice prédictive ». L’algorithme probabiliserait pour un cas donné le jugement rendu avec le moins d’incertitude possible selon les précédents enregistrés dans sa base de données. L’IA pourrait statuer sur certains cas qui sont communément répandus afin d’accélérer les procédures judiciaires et soulager la charge de travail des magistrats qui doivent traiter une grande quantité de cas simultanément. L’utilité de l’IA dans ce domaine semble indubitable, reste à savoir si elle sera employée comme simple outil ou comme véritable rouage du système judiciaire de demain. Cela dépendra majoritairement de l’évolution du rapport de confiance de l’Homme à la machine. Une question reste en suspens, celle de l’application de la justice à l’IA, avec la multiplication des machines autonomes, comme les voitures ou les drones par exemple, la question de leurs bévues judiciaires va se poser de façon croissante. Comme le souligne Laurent Alexandre, ce phénomène pourrait par conséquent précipiter l’utilisation de l’IA dans la justice étant donné la multiplication des cas à venir.

Si aspirer à une société de demain plus juste repose sur un système judiciaire plus fiable et plus efficace, cela repose aussi sur l’optimisation d’autres services publics qui viendrait appuyer un idéal de justice social.
  1. L’IA se préoccupe de la santé des individus
La santé est l’un des domaines où l’application de l’IA est le plus tangible. La robotisation de la société vise ainsi à en venir en aide aux plus fragiles tant sur le plan physique que psychologique. Dans le domaine de la santé publique, des programmes sont mis en place, notamment dans les services de cardiologie, afin de traiter de l’urgence des cas à traiter et permet de hiérarchiser l’ordre de passage des patients afin de sauver le maximum de vies. Mais l’IA offre aussi une prise en compte individualisée et plus suivie de certains cas en s’invitant directement dans le foyer des personnes diminuées. De plus en plus d’initiatives privées voient le jour. Les géants de l’high tech s’en mêlent, comme l’illustre le Plan 2026 Microsoft pour vaincre le cancer ou les travaux de Calico pour prolonger l’espérance de vie. Mais des acteurs plus modestes interviennent aussi, notamment pour contrer les dommages causés par la solitude. Des start-up comme Stockholm Exergi ou No isolation ont respectivement lancé les programmes Memory Lane et KOMP pour créer du lien entre technologies et personnes isolées. Dans le premiers cas une enceinte connectée discute avec les personnes âgées, s’intéresse à eux et fait travailler leur mémoire, dans le second l’accès à la technologie est simplifié et permet de rester en contact au moins virtuellement avec ses proches par le biais d’un réseau social. Ainsi, les robots sont malgré tout capables de créer des émotions dès lors qu’ils sont programmés en ce sens ou qu’ils mettent en relation les humains entre eux. Pour autant, cette présence croissante dans le secteur médical interroge sur certains points, notamment tout ce qui touche à la génétique qui peut supposer dans certains cas l’émergence d’un courant de pensée eugéniste qui viendrait mettre à mal l’éthique.
  1. Repenser l’éducation pour réduire la plus grande des inégalités
L’éducation est un autre domaine qui est amené à se restructurer avec le digital dans les années à venir. C’est ce que l’ouvrage de Laurent Alexandre, La Guerre des Intelligences encourage en tous cas vivement. Selon lui, repenser l’éducation, notamment en France, qui est l’un des pays avec le plus de disparités scolaires, est une nécessité de premier ordre. Il estime que la plus forte des inégalités est celle qui se rapporte à l’intelligence (« L’intelligence, la chose du monde la moins bien partagée »et qu’il faudrait rectifier ce phénomène. Il espère ainsi que les neurosciences fassent leur apparition dans l’enseignement de demain et que celui-ci soit de plus en plus individualisé (par le biais des MOOC notamment) afin de mener une politique d’adaptive learning propre aux besoins de chacun. Avec l’arrivée d’une intelligence d’un nouvel ordre, il n’y a plus le choix, tous les hommes doivent être au niveau par la démocratisation de l’accès à l’intelligence. Au-delà de la refonte de l’école, il estime judicieux d’associer son cerveau à une interface intelligente dans les années à venir, ce qui permettrait de gommer les disparités « aristocratiques » existantes aujourd’hui : « L’élément déterminant de cette mutation, le cœur du projet transhumaniste, est l’interfaçage de l’IA avec nos cerveaux, qui ne seront plus finalement que des supplétifs de l’IA ». Il estime la substitution d’une intelligence biologique par une intelligence artificielle connectée possible dès 2045. Tout ceci servirait selon lui à rester au niveau de l’intelligence artificielle et éviter de se faire dépasser, il livre donc une vision pessimiste de la réalité où seul le pragmatisme permettrait à l’humanité d’assurer son rang. Alors, sans même rentrer dans une vision aussi extrême que celle de Laurent Alexandre, il semble tout du moins intéressant de s’interroger sur les opportunités que l’IA et le numérique pourraient apporter à la structure éducative actuelle largement défaillante.

Alors, si l’IA peut tendre à repenser les rapports hiérarchiques qui clivent la société et conférer ainsi plus de justice sociale,  elle induit cependant la création d’un nouveau rapport inégalitaire à prendre en compte pour les années à venir, celui entre l’homme et la machine… Si aujourd’hui le problème de nos sociétés réside dans le fait qu’elles soient inégales et que les géants de l’IA, malgré leurs projets philanthropes - tout du moins en façade - s’accaparent le pouvoir, cela pourrait être bien pire demain si le développement global de l’IA comme technologie et non comme outil n’est pas surveillé.


III – L’Homme doit se rendre comme maître et possesseur de l’IA s’il ne veut pas perdre sa nature
  1. Perfectionner l’IA avant son déploiement massif
De plus en plus de groupes de penseurs se penchent sur les questions d’u usage responsable des technologies. On peut citer parmi ces travaux la Déclaration de Montréal  en date de décembre 2018 qui vise la « non-pollution » des technologies ou encore les 120 critères de développement de l’OCDE concernant la prise en compte de l’éthique dans l’application de l’IA. Si la problématique autour de la pollution de l’IA ne cesse d’être questionnée, c’est parce qu’au-delà de son caractère inédit, celle-ci n’est pas encore optimale. En effet, la forme d’intelligence artificielle que l’on connait aujourd’hui est encore limitée, l’IA forte n’a pas encore vu le jour. En atteste l’exemple célèbre de Tai, le chatbot de Microsoft qui a su se faire facilement berner en 2016 par des utilisateurs de Twitter jusqu’à le faire tenir des propos néo-nazis.  Cela ne veut surtout pas dire qu’il faut reléguer ces questionnements à plus tard mais au contraire qu’il faut accepter que la qualité de l’IA puisse être défaillante à l’heure actuelle ou exploitée à des fins malhonnêtes. Il faut donc se prémunir autant que possible face à ses dérives, non pas en freinant le développement technologique mais en ciblant ces failles. Ainsi l’éclosion des deep fake par le biais du deep learning est à surveiller de près car elle pose des problèmes éthiques évidents, pouvant prêter à une personne des propos qu’elle n’a pas tenu ou des actes qu’elle n’a pas commis de manière convaincante. Certains hommes politiques en ont déjà fait les frais. Cette pratique peut être d’un danger fulgurant tant elle rend facile la manipulation des citoyens. Le rapport entre artifice et réalité se brouille, ce qui vient altérer le niveau de confiance des individus, qui avait déjà tendance à se briser avec les médias pour d’autres raisons. Cela peut évidemment devenir très compromettant.  A l’heure actuelle le seul moyen de lutter est d’avoir le réflexe d’utiliser des logiciels comme InVid, accessible à tous, afin de sourcer la provenance d’une image et ainsi constater de son authenticité. Cependant, encore une fois, cette outil reste dans les mains d’un acteur biaisé, à savoir Google qui a optimisé l’usage du logiciel sur Chrome en proposant une extension.
  1. L’utilité de l’Homme contestée
Là encore, le débat sur le devenir de l’espèce humaine dans le secteur de l’emploi divise énormément les philosophes et les sociologues. D’un côté certains suivent la thèse du déversement d’Alfred Sauvy, applicable aux deux première Révolutions Industrielles qui se veut positive quant à la restructuration naturel de ce marché. D’autres, portés par l’étude d’Oxford de 2013 (The Future of employment) qui estime que 47% des emplois américains auront été menacés d’ici 2040,  se veulent moins rassurants et penchent plus pour un Grand Remplacement de l’Homme par la machine et ainsi une autonomisation croissante de la société. D’autres enfin comme le sociologue Antonio Casilli voient le problème dans l’autre sens et estime que l’homme remplace la machine par le biais de la « tacheronisation » incarnée par l’ubérisation de la société et les employés du clic, encourageant l’individu à s’orienter vers des emplois précaires peu gratifiants. Cette question est évidemment un des grands enjeux des années à venir tant le modèle capitaliste de nos sociétés a érigé le travail comme organisateur de nos modes de vie. Bien que les points de vue sur la question divergent selon le prisme idéologique de chacun, on ne peut nier la restructuration à venir de ce marché de l’emploi et la réinvention obligatoire de certains métiers pour que l’Homme puisse continuer de travailler sans être remplacé de toutes parts par la machine. Sans céder au catastrophisme, il faudra tout de même repenser le rapport entre l’Homme et la machine sous l’angle de la cohabitation et non de la rivalité afin d’éviter l’apparition d’un rapport déséquilibré, générateur d’injustice, entre machines et hommes sur le marché de l’emploi. Un accroissement des inégalités relatives à l’emploi pourrait même avoir lieu entre les humains eux-mêmes avec la possible polarisation des tâches entre métiers précaires et métiers hautement qualifiés.

Pour conclure, nous avons vu que repenser l’IA inclut plusieurs réflexions, tant sur son exploitation actuelle, celle qu’elle pourrait suivre dans les années à venir ou encore sur les dangers auxquels elle devra faire face. A ce propos, de nombreux acteurs publics comme privés, que ce soient des instituts, des groupes de penseurs ou bien des start-ups participent de plus en plus à cette question de redéfinition de l’IA pour l’intégrer à une pensée éthique qui mette l’accent sur l’orientation de nos sociétés vers plus de justice. Leur action passe aussi bien par la mise en place de contre-pouvoirs (tant règlementaires que pédagogiques en visant à informer les citoyens) limitant l’injustice que par l’offre d’alternatives repensant l’IA comme plus respectueuses de ce principe de justice. Enfin, il semble important de préciser que pour que cette utopie d’un monde juste ait du sens, elle suppose de ne pas implanter l’IA et la technologie dans tous les compartiments de nos modes de vie. Pour que la notion même de justice fasse sens, l’espèce humaine doit préserver une part de son humanité, se laisser dominer par une technologie envahissante rendrait absurde tout combat pour la maintien d’une éthique surplombante. Tout l’enjeu reste de savoir quelles limites poser et quelle système de gouvernance adviendra dans les années à venir afin de donner les impulsions politiques nécessaires à une meilleure application possible du principe de justice dans nos
sociétés.


Derniers articles

Partager en ligne