Atelier sur le partage de données et la reproductibilité

Atelier sur le partage de données et la reproductibilité

Blocs de contenu du modèle G
Sous-éditeur

 

BITSSworkshop_2.jpg

L'importance de vérifier le travail d'une autre personne est facile à saisir et constitue une norme dans de nombreux domaines. Par exemple, les bons systèmes financiers ont des audits et les mathématiciens vérifient les preuves des autres. De même, nous devrions nous attendre à ce que les chercheurs montrent leur travail en partageant de manière transparente les données et en codant les publications sous-jacentes. Cela est particulièrement vrai pour les résultats de la recherche scientifique qui influencent des millions de dollars en dépenses de programmes et de politiques. Pourtant, des études montrent que la transparence est l'exception plutôt que la norme dans de nombreuses disciplines de recherche (Alsheichk-Ali et autres. 2011/XNUMX/XNUMX, Gherghina ainsi que Katsanidoua 2013, Vignes 2014).

Pourquoi est-ce? Dans une enquête auprès de plus de 1300 chercheurs (Ténopir et al. 2011), le manque de temps et de financement figuraient parmi les principales raisons de ne pas partager. Dans notre travail sur le partage public de données/codes issus d'études de recherche menées par IPA - Innovations pour l'action contre la pauvreté (IPA) et le Centre pour une action mondiale efficace (CEGA), nous avons constaté qu'il est beaucoup plus long de partager publiquement des données/codes si le fait de rendre le matériel utilisable par d'autres n'a pas été envisagé dès le début du cycle de vie du projet. Les analystes de recherche et les gestionnaires qui ont travaillé avec le projet pendant la collecte de données partent souvent au bout de quelques années, et si les matériaux ne sont pas bien documentés, il peut être difficile (voire impossible !) De trier les fichiers et les ensembles de données désordonnés plus tard.

L'organisation des matériaux tout au long d'un projet était notre motivation pour notre atelier sur la transparence de la recherche co-organisé par la Berkeley Initiative for Transparency in the Social Sciences (BITS) et IPA. Le BITSS a été créé en 2012 pour renforcer la qualité de la recherche en sciences sociales et des preuves utilisées pour l'élaboration des politiques. L'initiative vise à améliorer les pratiques des économistes, des psychologues, des politologues et d'autres spécialistes des sciences sociales de manière à promouvoir la transparence, la reproductibilité et l'ouverture de la recherche. IPA et CEGA ont initiatives de transparence de la recherche qui soutiennent les chercheurs dans le partage de leurs données, mais c'est la première fois que les deux organisations se réunissent pour organiser un atelier pour les chercheurs et le personnel de recherche travaillant dans les pays en développement. Au total, nous avons eu environ 35 participants à notre atelier de 2 jours, y compris des chercheurs travaillant dans des universités et institutions africaines ainsi que des directeurs de recherche de l'IPA de plus de dix pays d'Afrique de l'Est et au-delà.

Au cours de l'atelier (ordre du jour ici) nous avons couvert des sujets sur la façon de rendre la recherche reproductible. Les séances comprenaient une vue d'ensemble des raisons pour lesquelles la recherche n'est pas fiable et comment la rendre plus fiable, les meilleures pratiques pour gérer les données et le code, rédiger un plan de pré-analyse, rédiger des documents dynamiques avec Markdoc dans Stata et en utilisant Git/Github pour garder une trace des versions de code. Nous avons également eu des sessions sur Open Science Framework (LE F), un outil créé par le Center for Open Science pour collaborer avec d'autres chercheurs. Nous avons accueilli un conférencier invité, le Dr Paulin Basinga, qui travaille avec la Fondation Gates ainsi qu'avec le ministère de la Santé du Rwanda et avons discuté (vidéo ici) l'importance des réplications pour fournir une solide base factuelle à l'élaboration des politiques. Enfin, nous avons consacré plusieurs heures à des travaux pratiques au cours desquels les participants pouvaient travailler à l'amélioration de leurs propres données/codes avec des instructeurs présents pour les aider. Tous les matériaux sont disponibles dans notre atelier page sur OSF.

Afin de faire progresser la transparence, nous avons besoin de plus que des exigences des revues et des bailleurs de fonds. Nous devons également développer et dispenser une formation sur les méthodes de transparence et de reproductibilité, et nous devons nous assurer qu'un financement adéquat est disponible pour rendre les données/codes utilisables dès le début d'un projet. Il y a de nombreux sujets à couvrir : bien que nous ayons couvert des domaines importants lors de notre atelier de deux jours, nous voyons un besoin de formations régulières approfondies sur la reproduction et le partage de données utilisables (tout en préservant la confidentialité des participants !) Cet été, BITSS propose une transparence de recherche de 3 jours Institut d'été à Berkeley pour les étudiants diplômés et les chercheurs (date limite de candidature le 31 mars !) Des groupes tels que Menuiserie logicielle, Menuiserie de données et par Centre pour la science ouverte offrent également des ressources et une formation en recherche reproductible, et les chercheurs de Johns Hopkins offrent également un Cours en ligne via Coursera. La formation à la recherche reproductible est loin d'être une recette complète pour changer la culture, mais nous croyons qu'elle est une partie importante du changement à venir. Nous espérons regarder en arrière dans dix ans et nous émerveiller du fait que la plupart des chercheurs se contentaient d'énoncer leurs conclusions, sans montrer leurs travaux.

21 mars 2016