livre 3 articles – 15 octobre 2022 – n°8

Un numéro 8 trÚs politique encore : l'évaluation au service de la lutte pour l'équité raciale avec une série de guides de la Fondation Kellogg; une synthÚse trÚs ambitieuse des barriÚres et des facilitateurs à l'usage de la recherche dans la fabrique de l'action publique par Giliberto Capano et Anna Malandrino; et oldies but goodies, le texte toujours d'actualité d'Eleanor Chelimsky sur l'évaluation dans un contexte politisé.

Faire de l'évaluation au service de l'équité raciale

Fin dĂ©cembre 2021, la Fondation Kellogg a publiĂ© une sĂ©rie de 3 guides concernant la pratique de l’évaluation en faveur de l’équitĂ© raciale.

Pourquoi l’équitĂ© raciale ? D’une part, l’organisation promeut l’évaluation en faveur de l’équitĂ© raciale et s’est engagĂ©e explicitement depuis 2007 Ă  ĂȘtre une organisation antiraciste. D’autre part, le contexte rĂ©cent aux États-Unis (marquĂ© par le meurtre de George Floyd et l'impact disproportionnĂ© du COVID-19 sur les AmĂ©rindiens, les Noirs et les Latinos, pour ne nommer que deux phĂ©nomĂšnes rĂ©cents
) l’a incitĂ©e Ă  produire ces guides pratiques.

L’ensemble prend la forme de trois guides. Le premier se concentre sur les mythes qui peuvent nous empĂȘcher de faire de l’évaluation en faveur de l’équitĂ© (raciale). C’est celui que nous aborderons ici plus en dĂ©tail. Les suivants sont tournĂ©s vers l’action pour changer les pratiques Ă©valuatives, et portent sur le diagnostic des biais et systĂšmes racistes et sur l’engagement associatif en faveur de l’équitĂ© raciale. Ces guides sont simples, clairs, motivants, abondamment illustrĂ©s (cliquez ici pour un exemple de BD en français tirĂ© du guide). S’ils se concentrent sur l’évaluation en faveur de l’équitĂ© raciale, l’ensemble des Ă©lĂ©ments abordĂ©s sont extrĂȘmement pertinents et s’appliquent Ă  l’ensemble des rĂ©flexions autour de l’équitĂ© (territoriale, sociale, des sexes, etc.).

Pour la Fondation, une Ă©valuation au service de l’équitĂ© raciale passe par une prise de conscience de nos « modĂšles mentaux » : ce sont des cadres de fonctionnement qui guident nos perceptions, nos comportements et notre façon d'aborder et d'Ă©tablir des relations avec les autres et notre environnement. Ces modĂšles sont particuliĂšrement impactant lors d’une Ă©valuation, car ils influencent notre façon de poser des questions Ă©valuatives, d’écrire un rĂ©fĂ©rentiel, collecter de l’information et communiquer les rĂ©sultats.

De plus, ces modÚles nourrissent et perpétuent des mythes qui affectent là encore notre pratique évaluative, individuellement et collectivement. 5 mythes sont présentés dans le guide, succinctement résumés ici.

Mythe 1 : Une science « rigoureuse » est objective et exempte de valeurs

Tous nos choix (Ă  qui on va parler, les questions qu’on va poser, l’analyse de nos donnĂ©es
) sont influencĂ©s par notre expertise et nos opinions Ă©clairĂ©es sur ce qui est le mieux dans un contexte donnĂ©. En effet, une recherche « totalement objective » 
 n’existe pas. Il vaut mieux pratiquer et exiger l'honnĂȘtetĂ©, la transparence et l'intĂ©gritĂ©.

Mythe 2 : Certaines mĂ©thodes sont meilleures que d’autres, car elles sont plus rigoureuses et/ou promeuvent l’authenticitĂ©

Nous ne referons pas ici le dĂ©bat entre mĂ©thodes qualitatives et quantitatives. NĂ©anmoins, la Fondation rappelle que certains dĂ©fenseurs de la lutte contre le racisme dĂ©noncent les donnĂ©es quantitatives, estimant qu’elles sont un produit de la culture dominante. Ces acteurs prĂ©fĂšrent recourir Ă  des rĂ©cits mettant en lumiĂšre les expĂ©riences vĂ©cues des personnes, telles que les Ă©volutions des conditions communautaires, la qualitĂ© des interactions des personnes avec les institutions et d'autres signes de progrĂšs vers l'Ă©quitĂ© sociale. Pour la Fondation, cependant, ça ne devrait pas ĂȘtre l’un ou l’autre : elle plaide pour des approches mixtes, lorsque les donnĂ©es quantitatives permettent de donner Ă  voir les disparitĂ©s Ă  l’Ɠuvre : par exemple, nous savons qu'il existe une crise de la justice pĂ©nale pour les jeunes hommes et femmes noirs, latinos et amĂ©rindiens, car nous pouvons Ă©numĂ©rer aux États-Unis la proportion de dĂ©tenus, les fusillades impliquant la police et les pratiques de condamnation selon la race et l'ethnie. C’est un bon point de dĂ©part pour des analyses plus approfondies.

En France, de telles statistiques n’existent pas, car les statistiques ethniques sont illĂ©gales.

Mythe 3 : Simplement consulter l’opinion des membres de la communautĂ© concernant l’évaluation leur donne du pouvoir et permet d’égaliser les dynamiques de pouvoir entre eux et l’évaluation

Pour rĂ©ellement identifier et rĂ©duire les disparitĂ©s de pouvoir, le guide nous incite Ă  faire des membres des groupes sociaux concernĂ©s les vĂ©ritables usagers de l’évaluation, en Ă©laborant des questions d’évaluation leur donnant des rĂ©ponses et ressources utiles ; en incluant leur voix et leur prĂ©sence ; et en travaillant avec eux pour comprendre les systĂšmes qui maintiennent le statu quo et identifier les leviers du changement (et ceux et celles qui les contrĂŽlent).

Certaines suggestions montrent en creux comment l’évaluation peut soutenir des systĂšmes dominants. Il est ainsi prĂ©cisĂ© que les Ă©valuateurs et Ă©valuatrices ne devraient pas attĂ©nuer les rĂ©actions nĂ©gatives des personnes interrogĂ©es ; mais aussi que l’évaluation devrait travailler avec les membres de ces groupes Ă  dĂ©finir des critĂšres et des indices de succĂšs pertinents ainsi qu’à prĂ©senter les rĂ©sultats d’une maniĂšre qui ne porte pas prĂ©judice Ă  la communautĂ©.

Tout cela sachant qu’il y a souvent plusieurs communautĂ©s et que chacune d'elle a des intĂ©rĂȘts diffĂ©rents dans les politiques publiques et leur Ă©valuation. Par ailleurs, qu’entend-on par « travailler avec » ou « impliquer » ses membres ?  Le 3e guide de cette sĂ©rie s’intĂ©resse Ă  ces questions.

Mythe 4 : Il faut que l’évaluateur soit de la mĂȘme origine ethnique que la majoritĂ© des bĂ©nĂ©ficiaires de l’intervention. Si ce n’est pas possible, il est prĂ©fĂ©rable d’avoir quelqu’un d’une autre communautĂ© minoritaire. Dans le cas d’une Ă©valuation avec une dimension ethnique ou raciale, les blancs reprĂ©sentent forcĂ©ment l’oppresseur.

Racial Equity

Aucune origine ethnique (ni sexe, ni handicap
) n'est monolithique. L’origine ethnique d'une personne ne fait pas d'elle une experte de l'expĂ©rience raciale d'une autre personne, mĂȘme si elle peut contribuer Ă  une meilleure comprĂ©hension de cette expĂ©rience. (cliquez ici pour voir l'exemple)

Mythe 5 : L’évaluation et les donnĂ©es sont neutres

Pour prolonger les réflexions autour des mythes 1 et 2, les données et les évaluations ne sont pas neutres.

L’utilisation prĂ©judiciable des donnĂ©es a permis de justifier des mouvements aux États-Unis tels que la guerre contre le crime et la drogue, ainsi que des rĂ©cits nĂ©gatifs tels que la « reine de l'aide sociale » ou l’« immigrant paresseux ». Les Ă©valuations peuvent de leur cĂŽtĂ© ĂȘtre ressenties comme un outil punitif.

Mais il ne faut pas non plus renoncer Ă  Ă©valuer
  D’aprĂšs le guide, l’évaluation doit surtout ĂȘtre utilisĂ©e pour comprendre, expliciter et contester les symptĂŽmes d’inĂ©galitĂ©s structurelles - et pour demander des comptes Ă  ceux qui les perpĂ©tuent.


Une Ă©valuation « en faveur de » ou qui « demande des comptes » n’est peut-ĂȘtre pas une approche d’évaluation dans laquelle vous vous sentez Ă  l’aise. Et alors que des discriminations existent en France, la notion de « race » y reste taboue.

Il n’en reste pas moins que, en tant qu’évaluateur/rice, nous avons la responsabilitĂ© de ne pas creuser les inĂ©galitĂ©s Ă  travers notre pratique – et c’est lĂ  oĂč ces guides ouvrent des pistes de rĂ©flexion pertinentes sur comment s’y prendre.

W.K. Kellogs Foundation (2021). Doing Evaluation in service of racial equity. Une série de trois guides : Debunk Myths; Diagnose Biases & Systems; Deepen Community Engagement. https://everychildthrives.com/doing-evaluation-in-service-of-racial-equity/

Identifier les usages de la connaissance dans la fabrique de l'action publique 

auteur auteur

Voici un excellent article qui replace de façon trĂšs accessible les dĂ©bats parfois trĂšs acĂ©rĂ©s sur l'intersection entre recherche et action publique. Dans un coin du ring, les tenants d'une recherche dont le rĂŽle essentiel est de produire de la connaissance; charge aux acteurs et actrices de l'action publique d'en tirer parti et de se servir de la connaissance pour leurs besoins. Dans l'autre, celles et ceux qui voient la fabrique de l'action publique comme un systĂšme complexe dans lequel la connaissance et celles et ceux qui la produisent ne sont qu'un Ă©lĂ©ment parmi d'autres. Pour les premiers, la connaissance est objective et les efforts Ă©ventuels doivent consister Ă  l'amener aux dĂ©cideurs ; pour les seconds, l'enjeu est d'adapter la connaissance aux contextes de son utilisation potentielle – la connaissance Ă©tant de toute façon toujours interprĂ©tĂ©e de façon subjective. Dans les deux cas, on retrouve la volontĂ© d'identifier les conditions, obstacles et opportunitĂ©s Ă  l'utilisation de la connaissance.

Jusque-lĂ  rien de trĂšs nouveau. L'auteur et l'autrice, tou·tes deux issu·es de l'UniversitĂ© de Bologne en Italie, constatent en effet qu'il existe un trĂšs large corpus acadĂ©mique sur ce sujet ; pourtant, celui-ci est essentiellement disciplinaire et sectoriel, empĂȘchant d'avoir une vue d'ensemble de la question. C'est cette perspective intersectorielle et interdisciplinaire, appliquĂ©e Ă  la vision "subjectiviste" de l'utilisation de la recherche, qui est proposĂ©e ici.

L'article identifie six « catĂ©gories gĂ©nĂ©rales, qui peuvent ĂȘtre considĂ©rĂ©es comme Ă©tant les Ă©lĂ©ments constitutifs des dynamiques politiques : les capacitĂ©s politiques [c'est-Ă -dire Ă  Ă©laborer des politiques publiques s'appuyant sur les rĂ©sultats de la recherche], les valeurs/idĂ©ologies/croyances, les relations entre les acteurs, les intĂ©rĂȘts, les arrangements institutionnels et processuels, et les types de preuve ». Chacune de ces catĂ©gories peut ĂȘtre, selon la situation, une barriĂšre, mais aussi un facilitateur. Leur rĂŽle dans l'utilisation de la recherche est ensuite Ă©tudiĂ© systĂ©matiquement. L'analyse effectuĂ©e fait ressortir que les valeurs/idĂ©ologies/croyances, et dans une moindre mesure, les relations entre les acteurs, sont les principales barriĂšres identifiĂ©es ; tandis que parmi les facilitateurs, les relations entre les acteurs sont largement en tĂȘte, les capacitĂ©s politiques Ă©tant un distant second. Il est Ă©videmment intĂ©ressant de constater que le type de preuve, qui intĂ©resse tant les producteurs de connaissance dans des dĂ©bats picrocholins, n'est pas totalement hors sujet, mais ne fait clairement pas partie des principaux enjeux de l'utilisation.

Au-delĂ  de l'ampleur de la tĂąche (5 045 articles identifiĂ©s, 604 analysĂ©s, 224 en profondeur), qui mĂ©rite d'ĂȘtre saluĂ©e, que retenir de tout cela ? L'essentiel est peut-ĂȘtre que ces catĂ©gories fournissent des ingrĂ©dients essentiels pour qui souhaite faciliter l'utilisation des connaissances, et en particulier ici de travaux Ă©valuatifs. Pour que ces derniers soient utiles, il faut considĂ©rer chaque catĂ©gorie lors du processus de l'Ă©valuation, voir comment des barriĂšres peuvent ĂȘtre transformĂ©es en facilitateurs des usages. La hiĂ©rarchie des barriĂšres et des facilitateurs pousse Ă©galement Ă  prendre Ă  bras le corps, comme les Ă©valuateurs et les Ă©valuatrices savent le faire, les questions de valeurs – plutĂŽt que de les mettre sous le tapis. On redira enfin l'importance de ces perspectives interdisciplinaires et intersectorielles pour produire une connaissance utile : Ă  chacun dĂ©sormais d'en faire usage !

Capano, G., & Malandrino, A. (2022). Mapping the use of knowledge in policymaking : Barriers and facilitators from a subjectivist perspective (1990–2020). Policy Sciences. https://doi.org/10.1007/s11077-022-09468-0

L'environnement politique de l'évaluation et ce qu'il signifie pour le développement de ce champ

auteur

Cet article est la retranscription de l’intervention d’Eleanor Chelimsky Ă  l’occasion de la confĂ©rence « Evaluation for a new century, a global perspective » organisĂ©e aux États-Unis en 1995. Lors de cette intervention, elle rĂ©flĂ©chit Ă  l’évaluation, Ă  la façon de la faire et dont elle peut ĂȘtre utile dans un contexte « idĂ©ologique », dans lequel (en application de la dĂ©finition proposĂ©e par Everett Ladd), des groupes politiques s’efforcent d'appliquer des croyances et opinions Ă  la vie publique Ă  travers une sĂ©rie de changements radicaux – en opposition avec des approches incrĂ©mentales, dans lesquelles l’action publique est modifiĂ©e par petits pas.

Pour Chelimsky, dans un contexte de changements idĂ©ologiques radicaux (qu’ils soient progressistes ou conservateurs d’ailleurs), les Ă©quipes d’évaluation ne sont pas sollicitĂ©es. Cela ne devrait pourtant pas les arrĂȘter dans la rĂ©alisation de leur travail. Au contraire, elles ont le devoir d’opposer des donnĂ©es et des preuves aux croyances et aux mythes, de produire de l’information objective, et de la faire connaĂźtre, y compris dans des environnements politiques qui y sont peu propices.

Ainsi, Ă©valuer dans un environnement fortement politisĂ© a des consĂ©quences directes pour les Ă©quipes d’évaluation :

Pour rĂ©pondre Ă  ces dĂ©fis, Chelimsky appelle Ă  des Ă©volutions plus globales dans la pratique Ă©valuative. Ainsi, il est nĂ©cessaire pour elle de crĂ©er plus de liens entre les diffĂ©rentes disciplines de l’évaluation, mais aussi avec la recherche. La crĂ©ation de rĂ©seaux d’évaluateur·rices interdisciplinaires permettrait un meilleur partage de connaissance, d’informations et de donnĂ©es. Le manque de lien avec la recherche est Ă©galement regrettable, car les Ă©valuateurs et chercheurs enrichissent mutuellement leurs travaux.

Les Ă©tudiants et Ă©tudiantes en Ă©valuation devraient Ă©galement apprendre Ă  mener des Ă©valuations crĂ©dibles dans un environnement politique, Ă©largir les thĂ©matiques sur lesquelles ils et elles sont amenĂ©es Ă  travailler, ainsi que les outils qu’ils manipulent (par exemple, ĂȘtre capable de comparer les coĂ»ts car c’est une demande Ă  laquelle ils et elles feront face), afin de savoir Ă©valuer dans des situations rĂ©elles, et pas seulement thĂ©oriques. Il est aussi important d’ĂȘtre rĂ©aliste quant aux impacts potentiels de leurs travaux.

En conclusion, Eleanor Chelimsky souligne que malgrĂ© les alternances politiques l’évaluation reste importante et utile, et que les Ă©valuateurs ont un rĂŽle Ă  jouer dans une sociĂ©tĂ© dĂ©mocratique. « Le dĂ©fi est de comprendre les forces et faiblesses/vulnĂ©rabilitĂ©s de la politique et de l’évaluation, et d’utiliser les deux afin de nous aider Ă  contribuer aux politiques publiques de façon significative et durable ».

PrĂšs de 30 ans aprĂšs cette intervention, la rĂ©flexion d’Eleanor Chelimsky sur l’évaluation dans un environnement politique « idĂ©ologique » est toujours d’actualitĂ©. En effet, dans un contexte politique de plus en plus guidĂ© par des croyances et opinions, il est nĂ©cessaire d’opposer donnĂ©es et preuves. Dans l’euphorie d’une alternance politique, l’évaluation permet la production d’informations factuelles.

Chelimsky, E. (1998). The Political Environment of Evaluation and What it Means for the Development of the Field. American Journal of Evaluation, 11. https://doi.org/10.1177/109821409501600301

Et aussi...


Ce numĂ©ro 8 a Ă©tĂ© prĂ©parĂ© par Thomas Delahais, Alexandra Williams et DaphnĂ© Burger-Bodin avec l'aide d'HĂ©lĂšne Faure. Relire le nÂș6 et le nÂș7. Pour vous abonner, cliquez ici (4 numĂ©ros par an).

Design et Ă©valuation — je t'aime, moi non plus

mardi 23 avril 2024

Une présentation réalisée dans le cadre de Design des politiques publiques nouvelle génération 2024

Les défis de l'évaluation des méga-évÚnments - Le cas des Jeux Olympiques et Paralympiques

lundi 08 avril 2024

Texte rédigé dans le cadre du MOOC de l'Université Paris 1

Evaluating EU Cohesion policy

lundi 23 octobre 2023

Evaluating EU Cohesion policy — European Court of Auditors

Humans after all?

lundi 03 juillet 2023

The challenges of external validity, towards an interdisciplinary discussion?

Humans after all?

mardi 27 juin 2023

Les défis de la validité externe, un sujet d'échange interdisciplinaire ?

Index égalité professionnelle, index senior...

vendredi 16 juin 2023

Le name and shame est-il une politique publique efficace?

Évaluation RTBFoods

jeudi 02 mars 2023

Du outcome harvesting dans une Ă©valuation de projet

Des fiches pour distinguer l'Ă©valuation d'autres pratiques voisines

jeudi 19 janvier 2023

Quelles distinctions entre l'Ă©valuation et les pratiques voisines ?

🃏 Cartographie des usages de l'Ă©valuation d'impact

mardi 01 novembre 2022

Quelle démarche pour une cartographie des usages de l'évaluation d'impact ?

📚 Trois articles d'Ă©valuation (nÂș8, 15 octobre 2022)

samedi 15 octobre 2022

Un numĂ©ro trĂšs trĂšs lutte – pour l'Ă©quitĂ© raciale, entre objectivistes et subjectivistes, et oldies but goodies pour faire entendre l'Ă©valuation dans un contexte politisĂ©.

📚 Évaluer les politiques locales d'Ă©galitĂ© femmes-hommes

mardi 04 octobre 2022

Publication

🚂 EES 2022: It’s not (only) you, it’s me (too)

dimanche 17 juillet 2022

Feedback on the European Evaluation Society Conference in Copenhagen

🚂 EES 2022 - C’est pas (que) toi, c’est moi (aussi)

mardi 12 juillet 2022

Retour sur la conférence de la société européenne d'évaluation à Copenhague

📚 Trois articles d'Ă©valuation (nÂș7, 15 juin 2022)

mercredi 15 juin 2022

Dans ce numéro, cinéma à tous les étages : La Revanche des Sith, Octobre rouge et 120 battements par minute... ou presque

🎙 L'Ă©valuation des contrats de ville

mercredi 01 juin 2022

Publication

📚 L'Ă©valuation en contexte de dĂ©veloppement

mardi 31 mai 2022

Publication

đŸŽ„ Cinq choses Ă  savoir sur les initiatives de transition

lundi 02 mai 2022

Vidéo

💡 Recherche et action publique : il faut ĂȘtre deux pour danser le tango

vendredi 25 mars 2022

Publication

📚 Trois articles d'Ă©valuation (nÂș6, 15 mars 2022)

mardi 15 mars 2022

Dans ce numéro, la cartographie des controverses rencontre la science comportementale, et la recherche l'action publique.

💡 Qu'attendre de la recherche pour Ă©clairer l'action publique

jeudi 20 janvier 2022

Publication

📚 Trois articles d'Ă©valuation (nÂș5, 15 dĂ©cembre 2021)

mercredi 15 décembre 2021

Numéro spécial Anthologie

Citations relatives Ă  l'Ă©valuation des politiques publiques

lundi 20 septembre 2021

Des citations inspirantes pour qui Ă©value.

📚 Trois articles d'Ă©valuation (nÂș4, 15 septembre 2021)

mercredi 15 septembre 2021

Dans ce numĂ©ro, Ă©valuation et bureaucratie, l'ultime combat, enquĂȘter avec d'autres ĂȘtres, et oldiesbutgoodies, on sauve le monde avec Bob Stake !

💡 Glossaires de l'Ă©valuation

dimanche 12 septembre 2021

Liste de glossaires

💡 7 bonnes raisons de prendre en compte l'Ă©galitĂ© entre les femmes et les hommes dans ma pratique d'Ă©valuation

vendredi 09 juillet 2021

Oldies but goodies (Karine Sage)

📚 Trois articles d'Ă©valuation (nÂș3, 15 mai 2021)

samedi 15 mai 2021

Dans ce numéro, des échecs, des échecs, des échecs, l'évaluation pleinement décrite et pleinement jugée et la réception des politiques du handicap. Pas de oldiesbutgoodies, mais ça reviendra pour le numéro 4 !

💡 Les Ă©valuations participatives, plus facile Ă  dire qu'Ă  faire

jeudi 29 avril 2021

Nouvel article publié (Thomas Delahais)

Quatre jeux de cartes d'Ă©valuation francophones

mardi 27 avril 2021

À l'occasion de la sortie de Strateval, nous revenons sur 3 autres jeux de cartes autour de l'Ă©valuation

💡 Qu'est-ce que l'analyse militante apporte Ă  l'Ă©valuation des politiques publiques ?

jeudi 08 avril 2021

Nouvel article publié (Marc Tevini)

📚 Trois articles d'Ă©valuation (nÂș2, 15 fĂ©vrier 2021)

lundi 15 février 2021

Dans ce numĂ©ro, Ă©valuation fĂ©ministe quĂ©saco, apprentissage et redevabilitĂ© mĂȘme combat ? et oldiesbutgoodies, des Ă©lĂ©ments pour une sociologie de l'Ă©valuation... C'est le sommaire de ce numĂ©ro 2.

đŸ“œ L'Ă©valuation des politiques sociales, de quoi parle-t-on ?

vendredi 15 janvier 2021

Introduction au séminaire de l'IRTS HDF du 26/01.

đŸ“œ L'analyse de contribution en pratique

mardi 15 décembre 2020

Introduction Ă  la formation Ă  l'analyse de contribution

📚 Trois articles d'Ă©valuation (nÂș1, 15 novembre 2020)

dimanche 15 novembre 2020

Dans ce numéro, plongée en pleine guerre froide avec la Realpolitik de l'évaluation, des idées pour professionnaliser l'évaluation, et oldiesbutgoodies, de quoi se demander ce que les évaluateurs et les évaluatrices défendent dans leur métier... C'est le sommaire de ce numéro 1.

đŸ“œ L'Ă©valuation participative, plus facile Ă  dire qu'Ă  faire

lundi 09 novembre 2020

Intervention de T Delahais au CongrÚs de la SEVAL organisé par le GREVAL à Fribourg, le 4 septembre 2020.

💡 En situation anormale, l'Ă©valuation doit devenir la norme

jeudi 29 octobre 2020

Contribution de T Delahais et M Tevini en réponse à l'appel de la SFE, "Ce que la crise sanitaire nous apprend sur l'utilité et les pratiques d'évaluation".

💡 Comment Ă©valuer la transition

vendredi 23 octobre 2020

Nouvel article publié (Thomas Delahais, Karine Sage, Vincent Honoré)

💡 Quels mĂ©canismes Ă  l'Ɠuvre dans les innovations ?

mardi 06 octobre 2020

Nouvel article publié (Agathe Devaux-Spatarakis)

📚 Trois articles d'Ă©valuation (v0, 30 juillet 2020)

jeudi 30 juillet 2020

À l'honneur pour cette Ă©dition, la sagesse pratique des Ă©valuateurs et des Ă©valuatrices, soit « la capacitĂ© de faire les bons choix, au bon moment, pour les bonnes raisons » ; ce que les mots et concepts de l'Ă©valuation perdent et gagnent Ă  leur traduction d'une langue Ă  l'autre et oldies but goodies, une piqĂ»re de rappel quant Ă  la vocation dĂ©mocratique de l'Ă©valuation en France... C'est le sommaire de ce numĂ©ro 0.