Impact et mise à l'échelle : entretien avec Annie Duflo et Dean Karlan, partie 2

Impact et mise à l'échelle : entretien avec Annie Duflo et Dean Karlan, partie 2

Blocs de contenu du modèle G
Sous-éditeur

Le mois dernier, Annie Duflo a assumé la direction exécutive de l'IPA, en remplacement de Dean Karlan, qui restera président. Annie travaille pour l'IPA depuis plus de trois ans en tant que vice-présidente et directrice de la recherche. Avec ce changement de direction, nous voulions nous asseoir avec Annie et Dean pour les entendre parler directement de la nouvelle structure organisationnelle et de ce qui nous attend alors que l'IPA envisage son dixième anniversaire. Cet extrait de l'interview plus large se concentre sur les origines de l'IPA et les efforts de mise à l'échelle de l'organisation. Nous avons publié les commentaires d'Annie et Dean sur leurs objectifs pour l'année prochaine dans un précédent post.

-----

Interviewer : L'histoire d'origine de l'IPA est que Dean a rejoint des chercheurs partageant les mêmes idées avec une vision d'appliquer des méthodes de recherche rigoureuses pour vraiment comprendre ce qui fonctionne dans le développement. Alors que vous approchez de la barre des 10 ans, en quoi l'IPA est-elle différente aujourd'hui de ce qui avait été imaginé à l'origine ?

Doyen: Nous faisons moins de mise à l'échelle [de programmes éprouvés] que prévu à l'origine - j'avais initialement envisagé plus de cas d'API s'impliquant activement dans la mise en œuvre directe et la mise à l'échelle juste après la fin d'une étude.

Et, sur un point connexe, nous faisons moins de travail pour guider les organisations et les entreprises alors qu'elles construisent leurs propres départements de recherche internes. J'avais cette image au début que nous allions guider un groupe de banques et de grandes organisations dans la création de pratiques de recherche internes, où elles pourraient prendre les techniques de randomisation que nous leur montrons et faire d'autres tests qui ne sont pas académiquement intéressants mais qui leur être extrêmement utile pour la conception de programmes ou de produits.

L'exemple dont je me souviens avoir parlé il y a neuf ans était le Programme de rattrapage Balsakhi [qui amène des assistants d'enseignement à travailler en petits groupes avec des élèves peu performants]. La question académique était : « Est-ce que Balsakhi marche ? Nous savons maintenant que c'est le cas. Mais des questions de suivi comme « Quel est le ratio optimal d'étudiants et d'assistants d'enseignement ? Doit-il être de quatre pour un ; huit contre un ; douze contre un ? Ce n'est pas une question que vous allez exciter de nombreux universitaires à l'idée de passer un an et demi et quelques centaines de milliers de dollars à comprendre. Mais si vous êtes une grande organisation qui gère des cours de rattrapage, vous devriez vraiment connaître la réponse. Et ce n'est pas si difficile de mettre en place un test pour comprendre cela.

Nous faisons donc moins de ce type de recherche, des choses qui sont clairement non académiques mais qui sont nécessaires pour la politique. Nous devrions faire plus, mais naturellement tout a ses compromis, et nos ressources n'ont pas été concentrées sur ce genre de questions.

Interviewer : Revenons donc au sujet de la mise à l'échelle : pourquoi l'IPA effectue-t-elle moins de mise à l'échelle que vous ne l'aviez prévu à l'origine ?

Doyen: Il en faut beaucoup pour arriver à un point où vous avez vraiment une image politique claire. La recherche nous déplace, elle déplace nos priorités, nous pousse vers certaines idées plutôt que d'autres, ou certaines manières de déployer des programmes plutôt que d'autres, mais elle ne conduit pas toujours à une réponse « faites ceci ».

Il y a aussi cette question sous-jacente de savoir combien de fois nous testons quelque chose avant d'être sûrs de pouvoir passer à un nouveau contexte, d'évaluer si le contexte est approprié, puis de le mettre à l'échelle. C'est une question avec laquelle nous luttons toujours, car nous ne voulons pas survendre un résultat, mais en même temps nous ne voulons pas empêcher l'action de se produire jusqu'à ce qu'une certitude totale soit atteinte (rien ne sera jamais "certain", naturellement). Nous apprenons donc toujours à faire ce compromis entre recueillir plus de preuves et sauter dans la mêlée et travailler pour voir les preuves changer la politique.

Enfin, il y a la question de déterminer le rôle approprié de l'API par rapport à la mise à l'échelle. Quel est notre avantage comparatif ? Quand est-ce qu'une situation est bonne pour nous de faire quelque chose plutôt que de convaincre les autres d'agir ?

Annie :Pour qu'un programme éprouvé soit mis à l'échelle, il faut aller au-delà de la diffusion des résultats de la recherche. La mise à l'échelle d'un programme nécessite des compétences très différentes du démarrage d'un nouveau projet de recherche et nécessite un niveau de financement différent. Que nous travaillions avec un gouvernement ou que nous réalisions un programme en interne, les programmes de mise à l'échelle nécessitent une énorme quantité de travail avant même que nous commencions à fournir des services. Il s'agit d'un investissement initial dans les ressources, la main-d'œuvre et les types de compétences nécessaires.

Interviewer : Annie, vous avez joué un rôle de premier plan dans la mise en place du programme d'enseignement de rattrapage Balsakhi au Ghana, où l'IPA travaille actuellement avec le gouvernement ghanéen pour le développer en tant que Initiative des assistants communautaires des enseignants (TCAI). Qu'y avait-il dans l'enseignement de rattrapage en particulier qui semblait prometteur pour l'étendre là-bas ?

Annie : TCAI s'adapte composantes de plusieurs programmes qui ont été évalués et qui se sont avérés efficaces [y compris l'approche d'éducation de rattrapage Balsakhi testée en Inde et les enseignants supplémentaires testés au Kenya]. Donc, les concepts sous-jacents de TCAI avaient été évalués dans différents contextes et nous étions tout à fait convaincus que les résultats pouvaient être généralisés. Bien sûr, la façon dont cela se fait au Ghana n'est pas exactement la même que celle qui se fait en Inde ou au Kenya, car le programme a dû être adapté au contexte local. Mais c'était l'un des programmes où nous pensions avoir suffisamment de preuves pour aller plus loin.

Intervieweur : IPA a un certain nombre de programmes qui, selon vous, sont suffisamment éprouvé à mettre à l'échelle. En plus de TCAI, il y a aussi déparasitage en milieu scolaire ainsi que distributeurs de chlore pour une eau salubre. Pensez-vous que ces efforts représentent les domaines où l'IAP a eu le plus d'impact au cours des dix dernières années, ou voyez-vous les choses différemment ?

doyen: Ils représentent ceux pour lesquels il y a une prescription très claire à faire, mais l'impact de la recherche de l'IPA va bien au-delà de ces exemples. 

Un exemple simple d'impact qui peut potentiellement être beaucoup plus grand est sur micro?crédit et par des dizaines of et le cannabis nous avons fait dans cet espace. Le résultat de ce travail a été de dire, écoutez, il n'y a rien de mal avec le microcrédit, mais la microfinance est plus que de simples prêts. Les institutions de microfinance doivent être davantage axées sur le client, en fournissant le bon service au bon moment, ce qui peut signifier une épargne ou une assurance, et pas seulement des prêts. Et pour le donateur, si vous essayez de maximiser les bénéfices que vous générez avec un don de 10 millions de dollars, le microcrédit n'est probablement pas l'endroit où aller. D'une part, les investisseurs sont heureux de financer la plupart des institutions de microfinance. Alors laissez-les ! Deuxièmement, les idées au-delà du simple crédit s'avèrent potentiellement plus efficaces.

Maintenant, le problème avec toute évaluation qui montre un résultat négatif, c'est qu'il est vraiment difficile de dire qui vous touchez avec ces résultats. Prenez un ordinateur portable par enfant. Des études ont été menées, pas par IPA, qui a montré que l'idée d'un ordinateur portable ne fonctionnait pas (les études ont duré environ un an, donc les croyants inconditionnels peuvent affirmer que les résultats à plus long terme montreront un changement ; mais les changements de processus ne semblent pas apparaître après un an soit, donc cela semble être un cas difficile à faire). Comment mesure-t-on l'impact de cette étude? Comment pouvez-vous compter les dollars qui ne sont pas donnés à quelque chose ?  

Annie: L'impact que nous avons ici est d'influencer les débats. A titre d'exemple, les études sur les moustiquaires ont montré que la facturation des moustiquaires a réduit le nombre de personnes qui les utilisaient. Ces études ont beaucoup influencé le débat sur la tarification des produits de santé. Il est très important de pouvoir faire évoluer le débat, et la recherche de l'IAP y contribue.

31 décembre 2011