Évaluer l’IA pour l’impact social en Afrique et en Asie

Évaluer l’IA pour l’impact social en Afrique et en Asie

Publié le October 14, 2025

Tracer une voie pour un déploiement éthique de l’IA en Afrique et en Asie

Né du AI for Development Funders’ Collaborative, l’AI Evidence Alliance for Social Impact (AEASI) est une initiative conjointe de plusieurs bailleurs et la première phase d’une collaboration plus vaste axée sur l’évaluation de l’IA. Ce projet réunit des partenaires mondiaux clés : Abdul Latif Jameel Poverty Action Lab (J‑PAL), Foreign, Commonwealth & Development Office (FCDO) du Royaume-Uni, International Development Research Centre (IDRC), IDinsight, Community Jameel, et Google.org.

Le programme Artificial Intelligence for Development (AI4D) encourage depuis longtemps l’innovation éthique et locale, reconnaissant la grande capacité des acteurs locaux à concevoir des solutions dans leur contexte. En tant que soutien précoce de l’écosystème de l’IA en Afrique, le programme AI4D a continuellement promu l’usage éthique de la technologie, influencé les politiques, renforcé les capacités en IA et mis en avant les perspectives du Sud dans la recherche mondiale. Ce travail de fond, qui localise la prise de décision et soutient la décentralisation du savoir, a préparé une nouvelle phase essentielle de collaboration.


Marquant une avancée importante vers une politique fondée sur des preuves, le lancement officiel de l’AI Evidence Alliance for Social Impact a eu lieu lors de la conférence AI for Africa Conference à Cape Town, organisée par le African Union, le G20 Sud-Afrique et UNESCO.

Définir l’agenda des preuves

L’objectif principal de l’alliance est de construire une base solide de preuves pour orienter les investissements futurs en IA et la gouvernance, en particulier dans les pays à revenu faible ou intermédiaire (PRFI) en Afrique et en Asie. Les projets vont générer et partager des recherches actionnables sur la façon dont l’IA influence les résultats de développement, en se concentrant sur les outils d’IA qui fonctionnent, ceux qui ne fonctionnent pas, et pour quelles populations.


George Richards, directeur de Community Jameel, a souligné la nécessité de cette approche fondée sur les preuves : « L’IA a le potentiel de s’attaquer à certains des défis les plus urgents du monde, mais nous avons besoin de preuves sur les solutions d’IA qui fonctionnent efficacement, en toute sécurité et équitablement afin de maximiser ses impacts. Nous sommes ravis de lancer cette nouvelle alliance pour aider à générer les preuves rigoureuses dont nous avons besoin et à déployer des solutions d’IA efficaces pour bénéficier aux communautés du monde entier. »

Promouvoir une IA responsable et la coordination

L’un des sous-projets majeurs de l’alliance, « Promouvoir une IA responsable : évaluer les investissements AI4D pour l’impact et l’équité », vise à combler une lacune essentielle en intégrant l’évaluation directement dans la conception et la mise en œuvre d’AI4D. Cela aide à identifier les « bonnes paris » dans l’IA pour le développement et à garantir que les technologies bénéficient aux populations marginalisées.

Cet effort se compose de trois piliers principaux :

  • Co-développer une agenda stratégique d’apprentissage aligné sur les objectifs du programme.
  • Réaliser des évaluations ciblées des projets financés par AI4D pour évaluer l’impact social, l’efficacité et la possibilité de montée en échelle.
  • Faciliter le partage des connaissances entre le réseau des bailleurs AI4D et l’écosystème plus large.

De plus, une feuille d’apprentissage sera développée pour cartographier le paysage « IA pour le développement », permettant aux bailleurs et aux acteurs de terrain de coordonner leurs efforts et d’éviter les duplications.

Les quatre niveaux d’évaluation

Ce cadre d’évaluation de l’IA élaboré par J-PAL propose une portée que les bailleurs et les organisations peuvent utiliser pour évaluer l’impact réel de l’IA. Il identifie quatre niveaux distincts pour guider le développement et la mise en œuvre des applications :

  • Niveau 1 : Évaluation du modèle — question : Est-ce que l’IA se comporte comme vous le souhaitez ?
  • Niveau 2 : Évaluation du produit — question : Le produit est-il utilisé comme prévu ?
  • Niveau 3 : Évaluation utilisateur — question : L’utilisation du produit influence-t-elle positivement les pensées, les sentiments et les actions des utilisateurs ?
  • Niveau 4 : Évaluation d’impact indépendante — question : Le produit IA est-il un moyen rentable d’améliorer les résultats de développement ?

Le second sous-projet, « Évaluer les cas d’usage de l’IA pour le développement », soutient directement ce cadre en finançant et en appuyant un portefeuille d’évaluations expérimentales. Cette initiative renforcera aussi le leadership et les capacités de recherche locales en Afrique et en Asie, en veillant à ce que les résultats soient traduits en orientations claires pour les décideurs et les praticiens.

Perspective

L’AEASI représente un engagement collectif envers une montée à l’échelle responsable et inclusive. Maggie Gorman Velez, vice-présidente Stratégies, Régions et Politiques à l’IDRC, l’a confirmé en déclarant : « L’IDRC est fière de soutenir ce nouveau travail d’évaluation dans le cadre de notre engagement continu pour une montée à l’échelle responsable d’innovations d’IA éprouvées, sûres, inclusives et pertinentes localement. »

Iqbal Dhaliwal, directeur exécutif mondial de J-PAL et co-leader d’AEASI, a souligné le potentiel de l’alliance pour maximiser l’utilité sociale : « J-PAL a une longue histoire d’évaluation des technologies innovantes et de leur capacité à améliorer la vie des gens. Bien que l’IA ait un potentiel incroyable, nous devons maximiser ses bénéfices et minimiser les dommages possibles. Nous remercions Community Jameel, le FCDO et l’IDRC pour leur investissement catalyseur pour lancer l’AEASI, qui nous aidera à étendre les preuves sur les impacts de l’IA. »

enfr