L’intelligence artificielle décoloniale

Chloé ROCHET, étudiante M1 Sciences Po EMI, coordination par Christine Balagué, Professeur, Institut Mines-Télécom Business School, Titulaire Chaire Good in Tech

05 June, 2020

C’est dans les années 1950 que la notion d’intelligence artificielle a été inventée par le mathématicien britannique Alan Turing dans son livre Computing Machinery and Intelligence. Il était désireux de trouver un moyen d’apporter aux machines une forme d’intelligence pour interagir avec les humains avec des réponses sensées. Aujourd’hui, le concept d’intelligence artificielle rassemble un certain nombre de techniques mise en œuvre pour permettre aux machines d’imiter une forme d’intelligence humaine. Cette technologie prend une importance exponentielle et se retrouve implantée dans de plus en plus de domaines d’application et notamment dans les GAFAM qui contrôlent une grande partie du numérique. En effet, alors qu'en 2015 le marché de l'intelligence artificielle pesait 200 millions de dollars, on estime qu'en 2025, il s'élèvera à près de 90 milliards de dollars. De Facebook à Google en passant par Amazon, Apple ou encore Microsoft, les géants de l’internet et toutes les grandes entreprises dans le monde de l’informatique tentent d’appliquer de plus en plus l’intelligence artificielle. Chacun possède déjà des systèmes algorithmiques de calculs et d’informations qui dirigent notre utilisation au sein d’une énorme base de données. L’innovation numérique, les progrès médicaux et l’automatisation des tâches qu’un humain ne serait pas capable de faire font partie des avantages de cette technologie. Néanmoins un bon nombre de problèmes éthiques surgissent dans l’application de l’intelligence artificielle, et nous pouvons même retracer les schémas historiques de domination coloniale. En effet, l’intelligence artificielle produit des effets discriminatoires sur les communautés historiquement sous-représentées, marginalisées et même anciennement colonisées. C’est donc dans cette lignée que nous parlons d’ « intelligence artificielle décoloniale ».


       A l’échelle mondiale, on observe déjà des inégalités quant à l’accès et au développement de l’IA. Ses développeurs en sont les principaux bénéficiaires et de nombreuses discriminations en découle donc. Par ailleurs, nous constatons que malgré la décolonisation, il existe toujours des rapports de pouvoir qui s’exercent entre anciennes métropole et colonies. Aujourd’hui, ces rapports de dominations s’exercent toujours et s’illustrent plus sur des aspects économique, culturel, politique ou encore technologique. Nous allons donc nous demander, en quoi peut-on parler d’une nécessité de décoloniser l’intelligence artificielle ? Nous verrons dans un premier temps à l’échelle macroéconomique en quoi nous pouvons parler d’un monopole de l’intelligence artificielle dans le monde. Puis, dans un deuxième temps, comment l’automatisation crée des inégalités raciales et discrimine notamment les personnes de couleurs.


       L’intelligence artificielle d’aujourd’hui apporte énormément de gains d’efficacité et ouvre certains domaines à de nouvelles possibilités mais son coût de développement est élevé. Ce facteur est une réelle barrière à l’entrée et renforce d’autant plus la domination des géants du Web. Selon une étude du journal canadien Le Devoir, « l’IA ajoutera près de 16 000 milliards à l’économie mondiale en 2030, mais 70 % de cette nouvelle richesse sera accaparée par l’Amérique du Nord et la Chine et 10 % seulement ira à l’ensemble des pays du Sud. » Il y a effectivement une monopolisation de la technologie de l’IA par les géants américain et chinois sur le reste du monde et d’autant plus sur les pays en développement ou émergents. Pour ces derniers, le développement de  l’IA, s’il n’est pas bien maîtrisé, pourrait creuser le retard au niveau des infrastructures de communication, de systèmes éducatifs et affecter socialement la population qui verra ses emplois automatisés par des machines. Ils dépendent déjà des géants de l’informatique qui prennent une place centrale dans la vie de beaucoup de personnes. En effet, les deux entreprises les plus valorisées au monde, plus de $1T chacune, Apple et Amazon, sont américaines. Ensemble, ces deux géants de nouvelles technologies pèsent presque autant que l’ensemble des entreprisses cotées à la Bourse de Paris et en regardant du côté chinois, le moteur de recherche Baidu dépense lui entre 20-30 milliards par an dans le développement de l’intelligence artificielle. Nous avons donc des algorithmes développés par eux mais aussi pour eux, donnant lieu à des inégalités de tout genre. Marc Benioff, président-directeur général de l’entreprise d’infonuagique Salesforce, a notamment appelé à la prudence dans le développement de l’IA : « La quatrième révolution industrielle (…) risque (d’) aggraver les inégalités économiques, raciales, environnementales et de genre. Nous risquons une nouvelle division technologique entre ceux qui ont accès à l’IA et ceux qui n’y ont pas accès. » Il y a donc une réelle nécessité de pallier à cette domination.


       En outre, Il est important d’aborder le problème racial dans le sujet de la « décolonisation » de l’intelligence artificielle car certaines études ont prouvé que beaucoup d'algorithmes d'intelligence artificielle sont biaisés par rapport aux personnes de couleurs. La domination de cette technologie se fait par les grandes puissances économiques et ce sont ces mêmes personnes qui développent ces algorithmes. Il y a donc un problème d’inclusivité derrière le processus parce que ces algorithmes ne sont pas pensés pour fonctionner pour tout le monde. De nombreuses personnes ne se rendent pas compte à quel point l’intelligence artificielle peut affecter la vie des personnes noires. En effet, une étude réalisée par Joy Buolamwini, chercheuse au Media Lab du MIT, a prouvé que les systèmes algorithmiques sont défectueux lors de l’identification des personnes à la peau foncée et d’autant plus si la personne est une femme. En effet, elle déclare avoir découvert que l'analyse des visages par IA fonctionne bien mieux pour les visages blancs que pour les visages noirs. Avec le co-auteur Timnit Gebru, elle a testé des logiciels de Microsoft, d'IBM et de la société chinoise Megvii pour voir dans quelle mesure chacun de leurs systèmes de balayage du visage permettait de déterminer si une personne sur une photo était un homme ou une femme, une tâche que les trois sont censés pouvoir accomplir. Si la personne sur la photo était un homme blanc, son étude a montré que les systèmes ont deviné correctement plus de 99 % du temps. Pour les femmes noires, en revanche, les systèmes ont échoué dans 20 à 34 % des cas, ce qui, si l'on considère qu'une estimation au hasard signifie que la personne a raison dans 50 % des cas, signifie qu'elle a failli ne pas trouver du tout. Ce défaut est largement dû au fait que les programmes d'analyse du visage sont formés et testés à l'aide de bases de données de centaines d'images, dont la recherche a révélé qu'elles étaient majoritairement blanches et masculines. Les développeurs, majoritairement de genre masculin et blancs, remarqueront donc difficilement que leur logiciel ne fonctionne pas pour quelqu’un ni blanc ni homme. Buolamwini a elle-même fait l’expérience de ce problème durant ses études. Elle n’a pas pu terminer son travail avec un nouveau robot de suivi du visage et a dû demander à sa colocataire à la peau claire, que le robot pouvait voir, d'intervenir. Ceci est un exemple parmi tant d’autres situations qui peuvent se révéler être discriminatoires. Ces inégalités raciales ont de sérieuses conséquences puisque les données récupérées par ces algorithmes sont utilisées pour décider du type de publicité que nous voyons, si nous sommes signalés par la police, si nous obtenons un emploi, ou même combien de temps nous passons derrière les barreaux. Imaginez que votre teint puisse vous porter préjudice dans des services comme HireVue, qui analyse les expressions faciales des candidats à un emploi, ou dans les systèmes de surveillance qui utilisent l'IA pour identifier les personnes dans les foules (comme celui utilisé sur les spectateurs involontaires des concerts du Boston Calling en 2014), ou encore dans les systèmes utilisés par les forces de l'ordre pour parcourir les photos des permis de conduire du Massachusetts. Et surtout, on se trouve dans une situation où les communautés les plus susceptibles d'être visées par les forces de l'ordre sont les moins représentées dans le code de reconnaissance des visages, cela augmentant évidemment considérablement le risque d’être mal identifié comme suspect. Buolamwini explique : "Parce que nous vivons dans une société qui reflète des préjugés historiques qui perdurent jusqu'à aujourd'hui, nous devons faire face au type de données que nous générons, au type de données que nous collectons, à la manière dont nous les analysons. Et nous devons le faire avec des yeux différents dans la salle, des expériences différentes et une plus grande parité entre les sexes".


D’ailleurs, le « biais algorithmique » a été identifié par l’ACLU (Union américaine pour les libertés civiles) en 2019 comme un sujet préoccupant pour les défenseurs des libertés civiles. « Ce n'est pas la première fois que nous voyons un produit développé en utilisant l'apprentissage automatique ou un outil d'évaluation des risques qui a des impacts différents sur les gens, selon leur race, leur classe sociale", explique Kade Crockford, directeur du programme "Technology for Liberty" de l'ACLU du Massachusetts. Il faudrait donc une approche globale plus éthique, des droits et libertés civiles pour construire les systèmes de l’IA.


       Pour conclure, l’intelligence artificielle pose déjà aujourd’hui de graves problèmes de monopolisation et de répartition inéquitable, qui ne pourront être résolus qu’à l’échelle mondiale. En effet, même si l’IA se développe progressivement en Afrique, en Amérique latine ou encore en Inde, ces régions du monde sont largement dépendantes des géants technologiques américains et chinois qui ont créé des technologies et des algorithmes sans forcément prendre en compte les diversités culturelles. Ainsi, une coordination internationale s’impose en matière de développement de l’IA et notamment du respect éthique des avancées technologiques qui récupèrent et stockent en une fraction de secondes nos données personnelles. D’autre part, les inégalités, notamment raciales, sont perpétuées par les machines et masquées par leur soi-disant neutralité d’où la nécessité de « décoloniser » l’intelligence artificielle. Malavika Jayaram, directrice du centre de recherche Digital Asia Hub à Hong Kong, déplore que « les nouveaux outils de l’IA soient encore trop souvent développés par et pour des hommes blancs de la Silicon Valley ». Aujourd’hui, certaines compagnies comme Microsoft ou IBM travaille à la mise à jour et la suppression de ces biais, en investissant dans la recherche pour reconnaître, comprendre et supprimer les préjugés. Il y a néanmoins toujours du chemin à parcours et cela commence par l’éducation, c’est-à-dire l’accessibilité pour tous au savoir de cette technologie. Cela donnera ainsi aux moins avantagés, les moyens de trouver des solutions adaptées à leurs propres problèmes.

BIBLIOGRAPHIE :


Alexandre R., 2017, Pour sa survie, l'Europe doit conquérir l'intelligence artificielle,
L’express. URL: https://lexpansion.lexpress.fr/high-tech/l-europe-doit-conquerir-l-intelligence-
artificielle_1962567.html


Buell S., 2018, MIT Researcher: Artificial Intelligence Has a Race Problem, and We Need to
Fix It, Boston Magazine. URL: https://www.bostonmagazine.com/news/2018/02/23/artificial-
intelligence-race-dark-skin-bias/?fbclid=IwAR1SV4jpPIYK0zGfXmp0eUDaS8fApZQ4d5S-
4DaDwBNZpo1RB5bpqSFqj2A


Desrosiers E., 2018, Une révolution technologique désastreuse pour les pays pauvres, Le
Devoir. URL: https://www.ledevoir.com/economie/530240/une-revolution-technologique-
desastreuse-pour-les-pays-pauvres


Stankovic M, 2019, L’intelligence artificielle comme vecteur d’inégalités, Institut Sapiens.
URL: https://www.institutsapiens.fr/lintelligence-artificielle-vecteur-dinegalites-historique/


UNESCO, 2018, Intelligence artificielle : promesses et menaces, Le courrier de l’UNESCO.

Derniers articles

Partager en ligne