Introduction
Au cœur de l’évaluation, il y a la question de la valeur. Quelle valeur accordera-t-on à une intervention et à ses résultats ? Qui décidera ? Comment ? Si certains sont mal à l’aise avec un usage accru de la mesure d’impact, c’est qu’ils estiment que certaines actions produisent des effets de grande valeur, mais que cette valeur est intangible. On ne pourrait donc pas évaluer ces effets objectivement, les chiffrer, leur attribuer une valeur monétaire ou les comparer à d’autres actions et résultats. Émerge donc une tension entre standardisation et flexibilité, deux stratégies qui comportent chacune des avantages et des inconvénients.
Peut-on mesurer l’intangible ?
Certains effets désirables pour la société sont qualifiés d’intangibles. La notion d’intangibilité émerge parfois lorsqu’il est question, par exemple, de démocratie, de pouvoir d’agir, de lien social, de cohésion sociale, de niveau de sensibilisation et de confiance (Kanter et Delahaye Paine, 2012, p. 70). Par intangible, on entend qu’on ne peut pas « toucher » ces effets et donc qu’ils sont difficiles, voire impossibles à saisir, à capturer, à observer, et ce, même s’ils sont généralement jugés importants par la société.
Cette idée fait écho à une certaine sagesse populaire transmise dans des citations comme celle attribuée, probablement à tort, à Einstein : « Ce qui compte ne peut pas toujours être compté, et ce qui peut être compté ne compte pas forcément », ou encore, celle de Saint-Exupéry dans Le Petit Prince : « L’essentiel est invisible pour les yeux ».
Dans les faits, nous ne connaissons pas d’exemples d’effets désirables mais absolument impossibles à observer. Intangible ne signifie donc pas qu’un effet est invisible, mais plutôt qu’il est difficile à mesurer objectivement à partir d’un instrument de mesure externe et standardisé.
Par exemple, dans un cas présenté par le Centre de formation populaire (CFP), on recense certains des bénéfices de l’intervention du Centre d’éducation et d’action des femmes de Montréal (CEAF) pour ses participantes : « amélioration de la concentration, déconstruction des préjugés, plus grande ouverture aux autres, meilleure compréhension des systèmes d’oppression et création d’un réseau social » (Centre de formation populaire (CFP), 2017). On peut difficilement mesurer, au sens de compter de manière objective, l’intériorisation ou non de préjugés, le degré d’ouverture à l’autre ou le niveau de compréhension des systèmes d’oppression. Est-ce dire que ces effets n’existent pas ou qu’une intervention à l’égard de ces variables n’est pas désirable ? Pas du tout. Malgré une certaine intangibilité, ils existent, ils sont importants et peuvent tout de même être exprimés par les individus directement concernés, même si c’est de manière subjective.
Évaluer un effet intangible
Pour évaluer un effet réputé intangible, il importe d’abord de bien décortiquer la nature du problème.
- Un premier défi est de cerner l’effet que l’on souhaite évaluer ou mesurer l’aspect de la réalité que l’on cherche à décrire.
- Un second défi consiste à trouver un indicateur ou proxy qui reflétera bien cet aspect.
- Un troisième défi consiste à mesurer le changement ou la différence vis-à-vis de cet aspect.
- Enfin, un dernier défi consiste à établir un lien de causalité, c’est-à-dire à démontrer qu’un changement est dû à une activité en particulier (dans une certaine proportion).
- Prenons comme exemple le racisme à l’égard d’un certain groupe comme barrière à l’emploi. C’est la situation ou encore l’aspect qu’on veut observer, mesurer, décrire et sur lequel on voudra éventuellement agir. On convient que le racisme à des effets concrets et négatifs sur la société, mais que son intériorisation dans les croyances des employeurs est difficile à observer et mesurer, d’où son caractère intangible.
- Plusieurs indicateurs pourraient tout de même être sélectionnés pour évaluer cette situation. On pourrait par exemple observer combien de personnes racisées sont convoquées à une entrevue ou embauchées versus celles qui ne le sont pas. Ce serait l’indicateur qui vise à mesurer l’aspect intangible.
- Si l’on avait conduit des tests à cet égard en 2010 et qu’on le faisait à nouveau aujourd’hui, on pourrait observer un changement (une hausse, une baisse, une variation dans la répartition, etc.).
- Il resterait alors à établir un lien de causalité, c’est-à-dire à inférer que ce changement est attribuable à certaines causes et dans quelle mesure.
Il est important, plutôt que de parler d’effet en général, de préciser exactement ce qui est intangible. Lorsque l’aspect à observer est « difficile à mesurer objectivement à partir d’un instrument de mesure externe et standardisé », on dit qu’il est intangible. Cela signifie qu’il est ardu de le cerner (étape 1), de sélectionner des indicateurs qui le reflètent bien (étape 2) ou d’en suivre l’évolution dans le temps (étape 3).
Lorsque le lien de causalité qui unit une cause à son effet (étape 4) est difficile à mesurer objectivement à partir d’un instrument de mesure externe et standardisé, on peut également dire qu’il est intangible. Mais ce défi n’est pas exactement de même nature et est plutôt abordé dans la section sur la causalité et l’attribution.
Les méthodes qualitatives sont généralement plus adaptées pour évaluer un effet réputé intangible, surtout lorsque celui-ci concerne un changement vécu ou perçu par une personne. L’une des manières les plus pratiques d’évaluer un tel effet est de donner la parole aux personnes concernées en leur demandant ce qu’elles pensent et ressentent via des questionnaires ou des entrevues. Certaines méthodologies sont plus rigoureuses que d’autres pour évaluer les réalités vécues dites intangibles, mais aucune n’est parfaite. Il s’agit simplement d’être conscient des biais potentiels ainsi que de la subjectivité inhérente à toute évaluation et de s’entendre sur le niveau de rigueur recherché.
- Par exemple, la manière dont les questions dans une entrevue ou un questionnaire sont formulées a certainement une influence sur les réponses qui seront générées.
- Plusieurs biais sont possibles. Le biais de désirabilité sociale est une situation où la personne interrogée pourrait modifier sa réponse ou cacher une partie de la vérité afin de répondre d’une manière qui lui paraît socialement conforme (Trochim, 2006a).
- Lorsqu’on interroge des participants sur une situation passée, leur mémoire peut faire défaut (recall bias).
Pour limiter ces biais, on peut, par exemple, demander aux participants de hiérarchiser plutôt que d’apprécier un effet (« Quelles répercussions vous ont paru les plus importantes ? », au lieu de « Avez-vous observé les répercussions suivantes ? »). On peut aussi poser la question de plusieurs manières différentes, afin de trianguler et tester la robustesse des réponses fournies. Cet espace web n’a pas pour vocation d’explorer chacun de ces aspects méthodologiques, mais simplement d’évoquer leur existence. Pour en savoir plus, référez-vous au manuel de méthode qualitative de votre choix :
- Les guides du CSMO-ÉSAC (Binhas, 2007) et de l’Avise (Duclos, 2007) traitent des détails de la construction d’une enquête de type qualitatif dans le contexte de la mesure d’impact.
- Pour une introduction générale à la recherche en sciences sociales, vous pouvez consulter la Research Methods Knowledge Base (Trochim, 2006b) (en anglais).
C’est probablement lorsque l’effet à évaluer concerne des interactions au sein de la société (par exemple la cohésion sociale) plutôt qu’une personne en particulier (par exemple son sentiment de confiance en soi) que les effets sont les plus intangibles, au sens de difficiles à observer ou à mesurer. Il n’existe pas de méthodes miracles pour résoudre cet enjeu et il appartient aux évaluateurs de faire preuve de créativité et de rigueur pour parvenir à cerner les effets recherchés du mieux qu’ils peuvent.
Pour certains, l’intangibilité d’un effet n’est pas tant un obstacle fondamental à la mesure d’impact qu’un défi méthodologique à surmonter. Des approches comme l’ACA et le SROI nous disent qu’en fait bien des choses que nous avons tendance à considérer comme incalculables peuvent effectivement être mesurées, et même se voir attribuer une valeur monétaire. Par exemple, pour évaluer la valeur monétaire qu’accorde la société à la réduction de préjugés, on utilisera un indicateur de substitution (proxy) tel que le montant que le gouvernement investit dans des campagnes de sensibilisation à cet égard. Au-delà des débats de nature technique concernant l’exactitude de telles approximations, certains remettent en doute la pertinence ou la faisabilité d’évaluer des bénéfices à partir d’une unité de mesure commune, la monnaie.
Comparaison : peut-on et doit-on tout « monétariser » ?
La monétarisation désigne l’action d’attribuer une valeur monétaire à des effets qui traditionnellement ne font pas l’objet de transactions sur le marché. Elle comporte certains avantages, mais soulève également plusieurs critiques.
La volonté de convertir des effets ou des avantages de natures différentes dans une unité de mesure commune (comme la monnaie) est au cœur de méthodes très populaires, comme l’analyse coût-avantage (ACA) et le SROI. Elle est cependant controversée pour plusieurs raisons. Avant d’aborder les arguments de part et d’autre, clarifions deux choses :
- Ce débat ne devrait pas s’articuler autour d’une sorte de rejet ou de préférence viscérale pour l’argent. Il concerne la volonté de convertir des effets de natures différentes en une unité commune. Celle-ci peut être une devise, en monnaie, mais aussi une note, comme le font plusieurs institutions financières ou programmes de certification, tels que B Corp.
- Ce débat, tel que nous le comprenons, n’oppose pas non plus une préférence pour les « chiffres » (quantitatif) ou les « histoires » (qualitatif).
Comme l’expliquent Maier, Schober, Simsa et Millner (2014, p. 16-17), cette volonté requiert d’abord qu’on accepte une hypothèse initiale, à savoir que des effets de nature différente peuvent effectivement être comparés, qu’ils sont commensurables. Cette hypothèse peut être rejetée sur une base philosophique :
Pour argumenter contre la commensurabilité, on peut citer Kant (1994:97), qui déclare que « […] l’homme en tant que personne […] est au-dessus de tout prix ». La commensurabilité est une forme d’exercice du pouvoir – inégalement réparti – qui détermine la devise dans laquelle la valeur des choses doit s’exprimer. (Maier et al., 2014, p.16, traduction libre)
L’argument en faveur d’une telle démarche insiste plutôt sur les aspects pratiques :
Des espoirs ont été exprimés qu’en traduisant dans le langage de l’argent des impacts souvent ignorés, l’analyse SROI pourrait les mettre sous les projecteurs (Edwards, Smith, & Büchs, 2010 ; Jardine & Whyte, 2013). Pendant la dernière décennie, les possibilités de monétarisation se sont considérablement étendues. Ce qui semblait autrefois inimaginable (e.g. Frumkin, 2003, sur la monétarisation d’un plaidoyer, de performances orchestrales et de la cellule familiale) peut aujourd’hui être monétarisé avec des méthodes économiques, comme la volonté de payer, l’indemnisation, les techniques de préférences révélées, la méthode des coûts de transport ou les dépenses moyennes des ménages pour certains types de biens (Nicholls et al., 2012: 47). (Maier et al., 2014, p.17, traduction libre)
Des arguments contre la conversion des coûts et des bénéfices d’une action en une unité monétaire unique peuvent également se faire sur une base plus pragmatique et concerner les risques de sous-estimer la véritable valeur des projets évalués, comme le remarque Nicole Alix (2015, p. 114) : « les coûts sont beaucoup plus faciles à évaluer que les bénéfices, qui sont souvent plus qualitatifs que quantitatifs ». Certains s’opposent également à la monétarisation sur la base des risques que ces procédés provoquent chez les acteurs évalués (la réactivité évoquée dans la section sur les potentiels impacts négatifs de la mesure) :
Même quand elles sont standardisées, ces méthodes peuvent conduire à comparer les impacts sociaux d’organisations très hétérogènes. Cela ouvre la porte à la concurrence dans la recherche de financements publics ou privés, par la comparaison de leurs « performances », et in fine à la distinction des organisations qui seraient soutenues de celles qui ne le seraient pas… (Branger, Gardin, Jany-Catrice et Pinaud, 2014, p. 21)
Si l’on accepte tout de même la prémisse qu’il est désirable, même si cela est difficile, de comparer des projets de nature très différente sur la même base, on fait alors face à plusieurs défis techniques. Pour aller plus loin sur ce sujet :
- Portail Ecosystem Valuation (en anglais)
- Veille sur Passerelles : des nouvelles ressources pour ceux et celles qui s’intéressent à l’analyse coût-avantage
Dans tous les cas, comme mentionné dans la fiche sur l’ACA, les résultats d’une évaluation où de multiples effets sont convertis et comparés en se servant d’une unité de mesure commune doivent être considérés avec précaution, car ces études formulent de nombreuses hypothèses concernant, par exemple, la proportion d’un effet qui peut être attribuée à une intervention et la valeur monétaire de l’effet ainsi obtenu. Ce n’est pas parce qu’il y a un chiffre ou une note que l’évaluation ne comporte pas une part de subjectivité.
La conclusion de cette sous-section est que l’attribution d’une valeur monétaire a des effets qui traditionnellement ne font pas l’objet de transactions sur le marché, la monétarisation, est un exercice potentiellement utile, mais dont les résultats devraient toujours être considérés avec précaution. Le lecteur averti doit garder en tête qu’il s’agit d’estimations raisonnables mais pas infaillibles, d’une « fourchette » de probabilités plutôt que d’un chiffre précis. Il s’agit donc simplement de garder un esprit critique, d’être conscient des limites des notes ou des indicateurs et de ne pas les employer comme des vérités absolues.
Cela amène des auteurs comme Bhatt et Hebb (2013) à recommander l’usage de plusieurs méthodes dans le cadre d’une évaluation de l’impact :
Il est important de se souvenir que toutes les expériences et tous les changements ne peuvent pas être traduits en termes monétaires. Ceux qui ne peuvent pas être monétarisés devraient être discutés sous forme de récits. Les récits […] vous permettent également d’éclaircir toutes les hypothèses ou les descriptions de domaines qui n’ont pas été mesurés ou qui n’ont pu être évalués. (Bhatt et Hebb, 2013, p. 12, traduction libre)
À ce sujet, les auteurs du guide sur le SROI eux-mêmes s’entendent pour dire qu’il « est peu probable que la comparaison des ratios de retour social soit pertinente, alors qu’est bien plus utile une analyse des diverses opinions et décisions énoncées au cours de l’élaboration d’un rapport SROI spécifique » (ESSEC IIES, 2011, p. 54).
D’autres vont plus loin et déconseillent tout simplement le recours à la monétarisation dans un contexte d’évaluation de l’économie sociale. À la place, ils formulent les recommandations suivantes :
Il faut promouvoir des systèmes de proximité où le jugement humain sait corriger les incertitudes résultant de la fabrication de prix pour ce qui n’en a pas. Des collaborations entre financeurs et financés sont nécessaires pour réduire des asymétries d’information sans passer par le rating et par des intermédiaires qui renchérissent le coût final de l’argent. Les banques coopératives et la finance solidaire ont une longue expérience (Dupuy, Langendorff, 2014), fondée sur de tels principes, qui gardent toute leur valeur. (Alix, 2015, p. 114)
La référence à la finance dans cette dernière citation nous mène vers un dernier débat particulièrement d’actualité dans les dernières années (voir Stratégie d’innovation sociale et finance sociale). Alors que des acteurs de l’économie sociale, comme le TIESS, favorisent une évaluation flexible, négociée, orientée sur l’apprentissage, l’amélioration et les besoins des entreprises, d’autres acteurs, principalement des bailleurs de fonds gouvernementaux et des organisations désireuses de développer le marché de l’investissement d’impact, font également part de besoins légitimes : celui d’analyser les retombées des organisations qu’ils financent à travers une grille de lecture commune et standardisée qui leur permet de comparer, cumuler et convertir les effets de leurs investissements.
Tension entre standardisation et flexibilité
Le malaise entourant la recherche d’équilibre entre, d’une part, une description fine et détaillée qui tient compte de la complexité du contexte et, d’autre part, la mise en place d’indicateurs communs pratiques mais potentiellement réducteurs est lié aux usages différents qu’on souhaite faire de la mesure d’impact. Le schéma suivant illustre certains des avantages respectifs des évaluations personnalisée et standardisée :
Les acteurs de l’économie sociale, ceux qui mènent des activités afin de générer des effets positifs sur leur territoire et dans leur communauté, bref, les sujets de l’évaluation, auront généralement une préférence pour des méthodes qui tiennent compte du contexte, qui offrent une description détaillée non seulement des résultats, mais aussi des processus, des obstacles et des bons coups. Ils s’intéresseront donc davantage à des méthodes et des indicateurs qui sont adaptés, personnalisés, afin de mieux refléter la pertinence de leur action.
Les bailleurs de fonds, qu’ils soient publics (gouvernements) ou privés (acteurs de la finance ou de la philanthropie), auront tendance à préférer des méthodes qui sont standardisées et qui font appel aux mêmes étapes et indicateurs d’un projet à l’autre, afin de dresser un portrait d’ensemble et d’allouer éventuellement des fonds sur la base de cette information.
Un exemple de ce débat entre standardisation et flexibilité peut être lu dans les pages de la Stanford Social Innovation Review. Ainsi, Saul (2014) pense que l’ensemble du secteur social peut être mesuré à travers des indicateurs standardisés. C’est l’ambition que se donne l’Impact Genome Project. Certains, comme Arnold-Fernandez (2014), lui répondent que les transformations sociales sont bien trop complexes pour être prise en compte par une banque d’indicateurs.
D’autres avantages et inconvénients de la standardisation de la mesure d’impact sont résumés par Flatau, Zaretzky, Adams, Horton et Smith (2015, p. 13‑14) dans le tableau suivant :
Nous vivons dans une « ère de l’information », où des coûts sont associés non seulement à la création d’information mais aussi de plus en plus à son utilisation. Un rapport de 100 pages aura l’avantage de beaucoup mieux décrire la spécificité de l’intervention d’une entreprise, mais il a très peu de chance d’être lu. À l’inverse, un rapport qui attribue une valeur monétaire ou une note à cette même organisation à partir d’une matrice d’analyse préétablie, malgré toutes les hypothèses et tous les raccourcis qui doivent être faits, a beaucoup plus de chance d’être pris en compte.
Ainsi, dans un monde de plus en plus complexe, les gestionnaires, pour garder le rythme, aspirent à un monde qui pourrait, comme l’explique James C. Scott dans cet article, « être lisible » de l’extérieur (Scott, 2010). Pour Chiapello (2015), il s’agit d’un processus de financiarisation, une colonisation de secteurs associés à l’intervention dans le champ du social par la pensée financière :
La financiarisation est généralement définie comme un processus de transformation morphologique du capitalisme, qui implique la saisie des ressources par la finance au sens large à travers l’expansion des marchés financiers, une augmentation du nombre et de la variété des opérateurs financiers et enfin le développement d’une industrie de services associée à des activités financières (cabinets d’audit, de consultation, d’avocats, agences de notation, etc.) (Chiapello, 2015, p.15, traduction libre)
[…] Quand quelqu’un décide de donner de l’argent à une organisation caritative ou quand une autorité locale décide d’accorder une subvention à un acteur social, il y a toujours une certaine forme d’évaluation préalable. Tout d’abord, la décision doit être prise pour fournir un soutien, et ensuite de combien. C’est cette opération d’évaluation qui devient progressivement financiarisée. Il y a une redéfinition des dons et des subventions, qui deviennent des investissements qui doivent avoir des rendements. Ces rendements requis sont appelés « rendements sociaux » (mais peuvent aussi être financiers). Il s’agit d’une vision très spécifique de l’évaluation, qui requiert un lien entre l’argent investi et ce que les organisations produisent, en vue de faire des choix parmi ces organisations en se basant sur des rendements sociaux comparés […]
Cette idée de l’investissement d’impact ne doit pas être confondue avec la demande de responsabilisation ou le désir d’évaluer les politiques menées, même si une certaine confusion persiste souvent dans les débats. Nous pouvons souhaiter une transparence concernant l’utilisation des fonds ou bien réfléchir au choix des meilleures politiques, mais cela ne signifie pas que la seule façon d’aborder ces questions est d’être comme un investisseur qui recherche le meilleur rendement possible et qui investit et se défait de ses investissements lorsqu’une bonne occasion se présente. Pourtant, c’est bien ce qui se passe : l’un des rêves les plus inébranlables est l’idée que l’impact social pourrait être réduit à un seul indicateur qui permettrait aux investisseurs de choisir tout simplement entre une gamme de propositions. Au lieu de considérer uniquement les risques et les rendements, ils pourraient simplement ajouter un troisième paramètre, l’impact social (Morgan 2012). (Chiapello, 2015, p.25, traduction libre, caractères gras ajoutés par le TIESS).
C’est pour répondre à cette soif que se développe un marché de la mesure d’impact standardisée. IRIS, GRI, SROI, B Corp (couverts dans les fiches méthodes du TIESS) et plusieurs autres ont pour objectifs de structurer et permettre la gestion d’un « portefeuille d’impact » (Alix et Baudet, 2015).
Si certains se méfient de cette volonté de financiariser l’univers en concevant des indicateurs qui permettent de favoriser le « pilotage à distance par des non-professionnels du social » (Chiapello, 2013), il importe de demeurer nuancé. La standardisation de l’évaluation n’a pas à être imposée d’en haut dans une logique de contrôle ou de concurrence. Elle pourrait au contraire être promue par les réseaux d’entreprises d’économie sociale eux-mêmes, qui y voient un intérêt pour aider leurs entreprises membres à se comparer et à s’améliorer (benchmarking), ou encore à cumuler leur impact pour mieux faire reconnaître leur action. Il s’agit également d’un moyen de promouvoir des pratiques jugées positives, comme l’illustre la démarche du Conseil québécois du loisir (CQL) sur l’accessibilité. En somme, c’est aux acteurs de déterminer ce qui est le mieux pour eux.
Alors, quelle perspective est préférable ? Une fois de plus, il n’y a pas de réponse unique ; le grand défi est de trouver un équilibre. Pour VISES, cet équilibre se trouve quelque part entre l’absence ou la présence totale de standardisation :
Entre des méthodes ad hoc et un format unique, une troisième possibilité serait d’adopter une « démarche commune » à la fois suffisamment flexible pour permettre à l’entreprise de rendre compte de ses spécificités, mais également compréhensible par des parties prenantes externes. Il s’agirait pour les entreprises d’adopter une démarche commune tout en laissant le choix des indicateurs et des techniques de collecte de données. Cela pourrait également ouvrir la porte à une valorisation de l’ensemble des entreprises d’ESS, auprès de parties prenantes externes. (VISES, 2017, p. 31)
Au Canada, le Common Approach to Impact Measurement Project s’est donné pour défi de trouver un équilibre entre standardisation et flexibilité. La théorie qui sous-tend ce projet s’inspire des notions d’équivalence conceptuelle (construct-based equivalence) et de flexibilité limitée (bounded flexibility) utilisées dans le domaine de la comptabilité financière. Pour en apprendre davantage, on peut consulter l’article de Kate Ruff (2019) ou le résumé rendu public sur leur site Internet.
Pour trouver cet équilibre, l’évaluation de l’économie sociale devra inévitablement tenir compte de la pertinence de chaque indicateur et de leur utilité à la fois pour les organismes et leurs parties prenantes (membres, utilisateurs, bailleurs de fonds), dans un processus continu de négociation et de délibération. Ce sont les approches et les indicateurs qui répondent le mieux aux objectifs de chacun qui seront les meilleurs.
En 2014, cette recherche d’équilibre entre flexibilité et standardisation avait également motivé les travaux du sous-groupe sur la mesure de l’impact social du Groupe d’experts de la Commission européenne sur l’entrepreneuriat social (GECES),
Le sous-groupe a estimé qu’il était impossible de concevoir un ensemble rigide d’indicateurs descendants et « à taille unique » qui permettraient de mesurer l’incidence sociale dans toutes les situations, et ce pour plusieurs raisons […] c’est pourquoi le présent rapport définit une procédure qui devrait permettre de faciliter le processus. (Clifford, Hehenberger et Fantini, 2014, p. 7)
Cette procédure est illustrée dans le schéma suivant.
Source : Clifford et al., 2014, p. 8
Depuis 2015, l’alignement d’indicateurs avec les objectifs de développement durable de l’Organisation des Nations Unies est devenu une grande source d’engouement en matière de standardisation de la mesure d’impact social. La GRI avait déjà pris les devant en lançant en 2015, en parteneriat avec le WBCSD et le UN Global Compact, le SDG Compass. Plus récemment, les indicateurs IRIS ont été mis à jour en 2019 afin d’être mieux alignés avec les ODD et le B Lab a lancé en janvier 2020 le SDG Action Manager.
Source : ONU
Après l’enthousiasme initial provoqué par l’idée d’intégrer l’ensemble des activités désirables pour l’humanité (les activités à impact social) au sein d’une grille commune, viendront probablement certaines désillusions quant aux limites d’une telle approche, mais aussi potentiellement certains progrès. Il s’agit donc d’un dossier important à surveiller dans les prochaines années.
Alix, N. (2015). Mesure de l’impact social, mesure du « consentement à investir ». Revue internationale de l’économie sociale : Recma, (335), 111‑116. doi:10.7202/1028537ar
Alix, N. et Baudet, A. (2015). La mesure de l’impact social : facteur de transformation du secteur social en Europe (no 2014/15). Belgique : CIRIEC.
Arnold-Fernandez, E. (2014, 29 mai). The Problem with the Impact Genome Project. Stanford Social Innovation Review. Repéré à https://ssir.org/articles/entry/the_problem_with_the_impact_genome_project 1 sur
Bhatt, B. et Hebb, T. (2013). Measuring Social Value: A Social Metric Primer. Carleton Center for Community Innovation (3CI).
Binhas, L. (2007). Comment mener une étude de A à Z : guide méthodologique à l’intention des regroupements, associations, fédérations, entreprises et organismes du secteur de l’économie sociale et de l’action communautaire. Montréal : Comité sectoriel de main-d’oeuvre économie sociale action communauté.
Bouchard, M. J., Fontan, J.-M., Lachance, É. et Fraisse, L. (2003). L’évaluation de l’économie sociale, quelques enjeux de conceptualisation et de méthodologie.
Branger, V., Gardin, L., Jany-Catrice, F. et Pinaud, S. (2014). Évaluer l’utilité sociale de l’économie sociale et solidaire. Projet Corus-ESS (Connaissance et reconnaissance de l’utilité sociale en ESS).
Centre de formation populaire (CFP). (2017, 12 janvier). Des mots pour exprimer les bienfaits du CÉAF… Un endroit où il fait bon être! ÉvalPop. Repéré le 2 mars 2017 à https://evalpop.com/2017/01/12/des-mots-pour-exprimer-les-bienfaits-du-ceaf-un-endroit-ou-il-fait-bon-etre/
Chiapello, E. (2013, mai). Mesure de l’impact social : pourquoi tant d’intérêt(s) ? Bulletin mensuel de Confrontations Europe.
Chiapello, E. (2015). Financialisation of Valuation. Human Studies, 38(1), 13‑35. doi:10.1007/s10746-014-9337-x
Clifford, J., Hehenberger, L. et Fantini, M. (2014). Approches proposées pour la mesure de l’impact social dans la législation et dans les pratiques de la Commission européenne concernant les FESE et le programme EaSI. Luxembourg : Commission européenne, sous-groupe du GECES sur la mesure d’impact. Repéré à http://dx.publications.europa.eu/10.2767/28927
Duclos, H. (2007). Évaluer l’utilité sociale de son activité – Conduire une démarche d’auto-évaluation. Paris (167 rue du Chevaleret, 75013) : Agence de valorisation des initiatives socio-économiques (AVISE).
ESSEC IIES. (2011). Guide du retour social sur investissement (SROI).
Flatau, P., Zaretzky, K., Adams, S., Horton, A. et Smith, J. (2015). Measuring Outcomes for Impact in the Community Sector in Western Australia (no 1). Sydney, Australia : Centre for Social Impact.
Hequet, C. (2016). L’évaluation monétaire de la nature. IRIS.
Kanter, B. et Delahaye Paine, K. (2012). Measuring the Networked Nonprofit. San Francisco : Jossey-Bass.
Maier, F., Schober, C., Simsa, R. et Millner, R. (2014, septembre). SROI as a Method for Evaluation Research: Understanding Merits and Limitations.
Ruff, K. (2019). Good Food and Good Jobs : How Construct-Based Equivalence and Bounded Flexibility Can Increase Entity-Level Relevance of Social and Environmental Accounting Standards. SSRN Electronic Journal. https://doi.org/10.2139/ssrn.3367614
Saul, J. (2014, 6 février). Cracking the Code on Social Impact. Stanford Social Innovation Review. Repéré à https://ssir.org/articles/entry/cracking_the_code_on_social_impact
Scott, J. C. (2010, septembre 8). The Trouble with the View from Above. Cato Unbound. https://www.cato-unbound.org/2010/09/08/james-c-scott/trouble-view-above
Trochim, W. M. (2006a). Selecting the Survey Method. The Research Methos Knowledge Base. Repéré le 30 avril 2018 à https://socialresearchmethods.net/kb/survsel.php
Trochim, W. M. (2006b). The Research Methods Knowledge Base (2e édition). Repéré à https://www.socialresearchmethods.net/kb/contents.php
VISES. (2017). Orientation stratégique du projet VISES – Approche des théories et pratiques. Lille et Louvain-la-Neuve : CRESS et ConcertES.
Pour aller plus loin
- Les stratégies de distinction et d’apprentissage
- Prouver l’impact ? Causalité, attribution et contribution
- Les impacts négatifs potentiels de la mesure d’impact
- Common Approach to Impact Measurement