En février, le Sommet pour l’action sur l’intelligence artificielle (IA), à Paris, a rassemblé plus d’une centaine de pays autour d’une déclaration pour une « intelligence artificielle inclusive et durable ». Neuf mois plus tard, la question reste entière : lorsque l’IA s’implante dans les contextes les plus fragiles — camps de réfugiés, territoires autochtones, zones de catastrophe — qui décide de sa conception, de ses usages et de ses limites ?
Un fossé entre rhétorique et réalité
La formulation ambitieuse des déclarations internationales contraste souvent avec la réalité du pouvoir décisionnel. Les technologies d’IA qui affectent les populations vulnérables sont fréquemment conçues et contrôlées ailleurs, par des acteurs extérieurs, pour des objectifs qui ne correspondent pas toujours aux besoins locaux.
Cette asymétrie se manifeste par des dispositifs techniques déployés sans participation effective des personnes concernées, des mécanismes opaques de traitement des données et des voies de recours inexistantes ou difficiles d’accès. Le résultat : un usage de l’IA qui peut renforcer des vulnérabilités plutôt que les réduire.
Le cas du camp de Bidi Bidi (Ouganda)
L’exemple de Bidi Bidi illustre clairement cette dynamique. En 2018, le Programme alimentaire mondial (PAM) a mis en place « Primes », un système biométrique destiné à faciliter la distribution de l’aide. Le camp abritait alors environ 270 000 réfugiés sud-soudanais qui dépendaient de ces distributions.
Pour beaucoup, le choix a été présenté comme binaire : communiquer leurs données biométriques — empreintes digitales — ou renoncer à recevoir l’aide alimentaire. Certaines personnes ont vu leur assistance suspendue en raison d’erreurs d’enregistrement. D’autres ont remis leurs empreintes sans disposer d’informations claires sur l’utilisation ultérieure de leurs données ni sur la procédure pour contester une décision.
Le dispositif fonctionnait comme une « boîte noire » : il était opaque pour ceux qu’il était censé servir et transparent pour ceux qui le contrôlaient. Les décisions, les critères de correspondance et les procédures internes restaient majoritairement invisibles pour les bénéficiaires.
Aucune consultation locale
Le problème majeur n’était pas seulement technique, mais structurel : l’absence de participation locale aux étapes clefs du projet. Conçu et déployé par des experts opérant hors du contexte immédiat, le système n’a, selon le récit rapporté, jamais fait l’objet d’une consultation approfondie des populations du camp.
Quand des dysfonctionnements sont apparus, ce sont les réfugiés qui en ont supporté les conséquences. Ils avaient peu de possibilités d’informer les responsables du projet, de corriger des erreurs ou d’exiger des garanties sur la protection de leurs données. Cette situation pose des questions éthiques et juridiques sur la responsabilité des organisations qui implémentent de telles technologies.
Déploiements concurrents et droits des peuples autochtones
La logique décrite à Bidi Bidi réapparait dans d’autres régions. Aux Philippines, par exemple, plus de 15 millions de personnes se déclarent autochtones. Sur leurs territoires, on observe la multiplication d’usages de l’IA : systèmes de surveillance visant à repérer des « groupes terroristes », exploitation minière automatisée, ou recours à la biométrie pour l’accès à des services publics.
Or, la loi philippine de 1997 relative aux droits des peuples autochtones impose, avant tout projet affectant leurs terres ancestrales, le principe du consentement libre, préalable et éclairé. Malgré ce cadre légal, des systèmes d’IA se déploient dans ces espaces comme si ce droit n’existait pas, selon le constat soulevé dans le récit d’origine.
Cette dissonance entre normes juridiques et pratiques techniques interroge la capacité des États et des opérateurs — publics ou privés — à traduire des principes juridiques en procédures effectives d’évaluation, de consultation et d’autorisation.
Sans consultation réelle et sans mécanismes transparents de gouvernance des données, les technologies d’IA risquent d’imposer des solutions qui reproduisent ou aggravent des rapports de pouvoir existants, plutôt que d’offrir des réponses adaptées aux besoins des populations concernées.





