12. Quels débats sur l’action publique ?
Les usages de l’évaluation des politiques publiques territorialisées
p. 285-305
Texte intégral
1L’évaluation des politiques publiques nourrirait-elle une opinion publique, entendue comme « une opinion vraie, régénérée par la discussion critique au sein de la sphère publique », répondant ainsi au « besoin de faire usage publiquement de sa raison », conformément aux analyses de Jurgen Habermas (1993, p. 105 et 171) ? Les pistes de réflexion que l’on propose s’appuient sur l’examen de la méthodologie de l’évaluation saisie de l’amont au rapport final, la méthodologie étant définie ici comme le choix d’un processus de production de connaissances pour l’analyse (Lascoumes et Setbon, 1996 ; Lascoumes, 1998) et non pas seulement comme une méthode de recueil de données. Il s’agit notamment de rechercher si, conformément aux attentes de quelques-uns des promoteurs de l’évaluation en France, qui ont mis en exergue ses potentialités démocratiques, celle-ci, en tant qu’activité de rassemblement, d’analyse et d’interprétation d’informations sur des programmes publics, structure un espace public de discussion, d’argumentation et d’intercompréhension et participe ainsi « à un processus critique de communication politique », par opposition à une publicité démonstrative, assurant « l’assentiment plébiscitaire d’un public vassalisé » (Habermas, 1993, p. 241).
2Pour la France, Patrick Viveret posait clairement l’enjeu de l’évaluation dans son rapport au Premier ministre Rocard : il la définissait comme « une condition nécessaire pour améliorer la qualité de notre vie démocratique » : elle devait « conduire à une revalorisation du rôle du Parlement, à une meilleure information des acteurs sociaux et à la mise à la disposition des citoyens de matériaux qui leur permettront de débattre et d’intervenir sur des politiques précises et plus seulement sur des choix généraux et abstraits… Or, passer de l’opinion – facilement manipulatoire – au jugement formé est précisément ce qui caractérise la citoyenneté dans une République » (Viveret, 1989, p. 85).
3Situant la question de l’évaluation des politiques publiques dans le cadre plus général du principe de publicité critique, on aura donc à l’esprit, à la suite de Jurgen Habermas, les nécessaires « dichotomies entre la discussion et la décision, la bureaucratie et le contrôle démocratique ».
4Les analyses proposées dans ce chapitre s’appuient à titre principal sur une comparaison des pratiques évaluatives menées dans deux Régions1, la Bretagne et Rhône-Alpes2, qui les premières se sont lancées avec le plus de détermination dans l’évaluation des politiques publiques3. Ces pratiques, en même temps qu’elles posent la question du débat, posent aussi celle du territoire régional ; celui-ci n’est pas un « fait de nature » appuyant une communauté politique incontestable, qu’auraient consacré les lois de décentralisation du début des années quatre-vingt. Aussi, pour ses promoteurs, un des intérêts de l’évaluation est de pouvoir être utilisée comme un moyen de définir et de délimiter un nouvel espace institutionnel et politique, tant un territoire, « loin d’appartenir au domaine de l’inné,… relève de la convention » (Badie, 1995).
5On verra en effet, dans un premier temps, que l’évaluation peut être utilisée comme un moyen d’affirmation pour des collectivités régionales à l’identité incertaine, faiblement reconnue (Le Galès et Lequesne, 1997) et dont les politiques ne sont pas pour l’essentiel des politiques publiques autonomes, mais le résultat d’une coordination, d’une coopération entre des acteurs interdépendants (Balme, 1997) qui en font des politiques plus souvent territorialisées que spécifiquement territoriales. L’évaluation peut contribuer au dépassement de cet handicap initial, participant ainsi à la légitimation du niveau régional (Warin, 1996) à l’intention de ses partenaires publics et privés. En quelque sorte, elle peut être auto-réalisatrice en ce qu’elle suggère le dynamisme des acteurs régionaux et leurs disponibilités pour des infléchissements dans leurs programmes d’action.
6Par ailleurs, on ne peut penser l’évaluation sans contextualisation, en dehors de ses intervenants et des dynamiques intellectuelles à l’œuvre. À cet égard, l’évaluation, analysée comme une démarche collective, est travaillée à un niveau micro-corporatiste par des communautés locales d’analyse des politiques publiques. Elle s’inscrit dans un temps autrement plus long que le moment évaluatif et emprunte en réalité à des réseaux vieux de plusieurs décennies de coopération, en particulier entre une partie du monde universitaire et l’univers politico-administratif.
7Enfin, dans un troisième temps, en s’appuyant d’abord sur l’exemple du dispositif breton, puis en prolongeant la réflexion par un examen du dispositif évaluatif étendu à l’ensemble des régions dans le cadre des contrats de plan État-Régions, on posera la question suivante : à supposer que l’évaluation menée aux échelons régionaux vise et réussisse à produire une information crédible et légitime qui participe au débat ? En d'autres termes, de quel espace public s’agit-il ?
L’évaluation comme promotion d’un espace public régional
8Posée comme nécessaire, l’évaluation est à certains égards un prétexte. Elle ne peut pas être réduite à des préoccupations de « rendement de l’État » ou de « renouveau » démocratique (Spenlehauer, 1995). À ce stade, le discours fondateur sur l’évaluation comme répondant à la raison démocratique est secondaire. Derrière les pratiques de l’évaluation, il y a du marketing institutionnel : pour ses promoteurs, son intérêt essentiel est la qualification d’un espace public régional. Cette démarche peut d’ailleurs être conduite sur un mode vindicatif où l’évaluation est utilisée pour légitimer une place d’acteur public au détriment d’autres acteurs.
9Elle est en elle-même un objectif politique propre, d’autant que les lois décentralisatrices des années quatre-vingt n’ont pas renforcé les Régions autant que l’on aurait pu l’imaginer, tandis qu’elles consacraient le vieil échelon départemental. Les précurseurs de l’évaluation dans des Régions (Horaist, 1992), comme la Bretagne (1990), Rhône-Alpes (1991), Midi-Pyrénées (1992), les Pays-de-la-Loire (1993), la Lorraine (1994), en même temps qu’ils pouvaient renforcer leurs propres positions institutionnelles de serviteurs de l’État en région pour les uns, de cadres dirigeants des Régions pour d’autres, d’experts en évaluation ou d’innovateurs4 pour d’autres encore, ont surtout voulu affirmer une dimension institutionnelle jusque-là incertaine : au niveau régional, comme d’ailleurs à un niveau européen (Quermonne et Smith, 1996), n’émergent au début des années quatre-vingt-dix que de timides espaces de politiques publiques, à la légitimité discutée. À ces deux niveaux, le recours à l’évaluation peut être performatif.
10Reste à préciser qui s’approprie l’évaluation. Dans le rapport national/local, en particulier, l’espace régional peut être promu de deux manières très contrastées : soit en partenariat avec l’État, soit au contraire sur la base d’une forte différenciation. Le système bicéphale de la Bretagne s’oppose ici fortement au système monocéphale de la Région Rhône-Alpes, chacune des deux régions se positionnant différemment dans le système administratif et politique français, le recours aux évaluations des fonds structurels européens complexifiant d’ailleurs l’appropriation de la démarche.
La continuation d’une pratique d’affirmation partagée du niveau régional
11En Bretagne, le dispositif évaluatif étant conjointement dirigé par le préfet de région et par le Président du Conseil régional, l’évaluation est un instrument partagé de distinction pour l’État dans la région et pour la Région en tant que collectivité territoriale. Plus précisément, l’évaluation s’inscrit dans une configuration particulière de relations administratives et politiques avec l’État (par exemple, Dulong, 1975 ; Nicolas, 1982 ; Phlipponneau, 1986) et dans une (longue) histoire de Bretons, exigeants et parfois turbulents, mais pour le plus grand nombre demandeurs d’État comme ils sont aussi demandeurs d’Europe5.
12Depuis 1972, le Conseil régional a d’ailleurs été présidé par des hommes qui ont pris la direction de la Région à la fin d’une longue carrière politique à dimension nationale, la présidence du Conseil régional étant pour eux un aboutissement et non un tremplin : René Pleven (1974-1976), André Colin (1976-1978), Raymond Marcellin (1978-1986), tous les trois ayant été par ailleurs présidents de Conseil général, mais aussi Yvon Bourges qui a présidé la Région de mars 1986 à mars 1998, ont exercé des responsabilités ministérielles, parfois éminentes. Sous la IVe République, René Pleven a été treize fois ministre mais aussi chef de gouvernement à deux reprises, André Colin et Raymond Marcellin ayant détenu quant à eux quatre et cinq ministères. Sous la Ve République, René Pleven est revenu à des responsabilités ministérielles de 1969 à 1973, tout comme Raymond Marcellin qui pendant douze années a appartenu sans discontinuer à tous les gouvernements (1962 à 1974), notamment au ministère de l’Intérieur après mai 68 ; Yvon Bourges, après une carrière comme haut fonctionnaire de l’État, notamment en France d’outre-mer, a participé à tous les gouvernements qui se sont succédés de 1965 à 1973, puis de 1975 à 1980.
13La Bretagne a été pensée et est pensée avec l’État. C’était déjà le cas aux temps revendicatifs du Comité de liaison des intérêts bretons (CELIB), créé en 1949, et réunissant alors sous la présidence de René Pleven6 (Bougeard, 1994) la quasi totalité des hommes politiques, qu’ils soient parlementaires, conseillers généraux ou maires, mais aussi les représentants des organismes consulaires et des organisations syndicales, à la recherche de projets communs de développement économique à proposer, parfois vigoureusement, à l’État, non sans succès avant que le CELIB ne perde sa force mobilisatrice. Inspiratrice des Régions de programmes et plus tard « l’enfant chéri de la DATAR » selon le mot d’un directeur des services du Conseil régional, la Bretagne a su établir de longue date des coopérations efficaces avec les préfets de région.
14Ce que l’on a parfois appelé le « modèle breton », fait de coopération avec l’État et les partenaires institutionnels et professionnels, continue dans une large mesure. Alors même que les réformes décentralisatrices des années quatre-vingt ouvraient de nouvelles perspectives, le dispositif évaluatif se situe pourtant, non sans quelque anachronisme, dans cette veine co-gestionnaire de l’action publique. L’évaluation peut légitimer le renforcement institutionnel de la Région, en même temps qu’elle peut être un moyen pour le Secrétariat général aux affaires régionales (SGAR) d’affirmer sa place face aux logiques techniques et sectorielles des services déconcentrés de l’État. Elle est menée de manière concertée, à l’intérieur d’un périmètre politico-administratif qui exclue les turbulences, tant elle évacue largement le politique (Fontaine, 1996b). L’évaluation n’est pas une arme, au service d’un combat régionaliste à la recherche de son identité, comme c’est le cas en Rhône-Alpes.
L’affichage d’une ambition régionaliste
15Charles Millon a accédé en octobre 1988 à la présidence du Conseil régional, à la suite du décès de Charles Béraudier, premier adjoint du maire de Lyon. Celui-ci a pu être présenté comme un « vieux baron de la politique locale,…, incarnant un style politique fait de consensus local et symbolisant le “plus petit dénominateur commun” : la défiance par rapport à Paris » (Jouve, 1998, p. 110). À l'inverse, Charles Millon dont le poids politique, tant local que national, n’est pas évident lors de son accession à la Présidence7, est soutenu, lors de son second mandat (1992-1998), par un personnel politique assez atypique : une politique régionaliste est un élément d’affirmation d’une classe politique « vierge » du fait de l’abandon du Conseil régional par les parlementaires, de la quasi-absence des présidents de conseils généraux et l’absence totale des maires des grandes villes (Jouve, 1998). Aussi, Charles Millon, pour affirmer une identité régionale en devenir, va-t-il solliciter, faute de majorité absolue8, des soutiens ponctuels, en particulier en provenance d’écologistes, d’élus de listes dissidentes de gauche, voire de socialistes, pour compenser une majorité relative. Il va ainsi appuyer ses ambitions politiques nationales sur son action régionale.
16Un recours à l’évaluation, dans une perspective qui met de la distance dans la relation avec l’État, y participe. Lors du lancement du comité régional de l’évaluation, le préfet de région en place à Lyon, au demeurant président de l’association du corps préfectoral et des hauts fonctionnaires du ministère de l’Intérieur, y avait d’ailleurs vu une attaque contre l’État, non sans allumer quelques contrefeux. De la part de Charles Millon, des références répétées et fortement étayées à la subsidiarité9, la critique classique mais forte de l’imbrication des pouvoirs dans le système mis en place par les lois de décentralisation (Millon 1992), n’étaient pas faites pour rassurer les services de l’État dans la région.
17L’évaluation est un moyen de mettre en scène la Région Rhône-Alpes par rapport à ses partenaires publics et privés, de marquer une ambition, au risque de susciter les réactions irritées de partenaires plus anciens dans le jeu politico-administratif. Elle permet en effet d’affirmer la Région, en soulignant une singularité qui ne soit pas réductible aux niveaux infra-régionaux que sont les départements, tout comme par rapport aux villes et aux organismes consulaires. Faute d’héritages historiques et de particularismes culturels homogènes, affirmer la Région Rhône-Alpes face à huit départements et quelques grandes villes (Lyon, Grenoble,…) est en effet une entreprise difficile. Vincent Spenlehauer (1995) a ainsi montré dans l’analyse qu’il a faite de l’utilisation par le Conseil général de la Drôme d’une évaluation du Programme intégré méditerranéen (PIM) des Communautés européennes, comment le Conseil général avait su tirer profit tant de la politique concernée que de son évaluation, pour asseoir davantage son rôle par rapport aux administrations et organisations professionnelles du département et, en même temps,… discréditer le niveau régional, particulièrement sur le volet formation professionnelle du PIM.
18Une évaluation bien maîtrisée permet à l’inverse de durcir le trait dans l’affirmation de la Région dans la mesure surtout où ses interlocuteurs institutionnels vont être confrontés à une démarche qui leur échappe : par exemple, l’évaluation, à la seule initiative de la Région, de la procédure de « contrats globaux de développement » prévus dans le contrat de plan État-Région Rhône-Alpes (1994-1998) dans le cadre de « territoires de projet ». Ceux-ci s’inscrivent de par leur caractère supra-cantonal dans une stratégie offensive face aux départements ; ils évoquent les « pays », consacrés par la loi Pasqua (4 février 1995), dont Charles Millon s’est fait l’avocat comme président de la commission spéciale de l’Assemblée nationale, créée à cette occasion. La redistribution de ressources financières, qui appuient des efforts locaux de développement, participe à la légitimation d’un « intérêt régional à agir » en matière d’aménagement du territoire. Même si la Région, n’allant pas jusqu’au bout de son ambition, a dû passer des compromis avec les forces locales et notamment les conseils généraux, il n’en reste pas moins que ces contrats peuvent participer à l’émergence de nouveaux espaces d’action locale (une quarantaine sur l’ensemble de la Région)10, de « régions de la Région » en quelque sorte, et que l’évaluation officialise la « fabrique de nouveaux territoires », qui permettent de « tenir, ainsi, pays par pays, toute la Région » (Vanier, 1995, p. 95).
19La Région Rhône-Alpes a aussi cherché à se démarquer des corporatismes professionnels et de leurs logiques sectorielles : en relation avec l’État, elle a mis en œuvre en 1989 des Programmes intégrés de développement agricole (PIDA), aux fins de renforcer les relations entre l’amont et l’aval du secteur agro-alimentaire ; par leur finalité intégratrice à l’intérieur des filières de productions, ces programmes se démarquent des subventions traditionnelles auxquelles les organisations agricoles sont attachées. Précisément, une évaluation du programme, en même temps qu’elle a cherché à vérifier une capacité d’innovation de la Région, a officialisé l’émergence de nouvelles pratiques, qui par un élargissement des acteurs concernés, sont allés à l’encontre du monopole médiateur des chambres d’agriculture et du syndicalisme agricole unitaire (la FNSEA) : un avis du Conseil économique et social de la Région montre bien la réticence des représentants institutionnels du secteur agricole, outrés qu’au travers du rapport final d’évaluation « soit affirmé aussi clairement, dès le début du rapport, le souci de la Région de vouloir gérer sa politique sans les organisations professionnelles qui pourraient faire écran »11.
20De même, avant qu’une circulaire du 9 décembre 1993 n’oblige à une coopération pour l’évaluation des contrats de plan, la Région choisit l’absentéisme à l’encontre de dispositifs dont elle n’a pas la maîtrise : lors de la mise en place, par la Direction régionale de l’Équipement de Rhône-Alpes, et à la demande du ministère des Transports, d’un observatoire régional des transports auquel est adjoint un Comité d’évaluation et de développement de l’information sur les transports (CEDIT), l’un et l’autre devant être les supports d’une concertation des acteurs locaux du transport, Charles Millon, alors même que les questions de transports routiers engagent des fonds substantiels en terme de formation aux métiers du transport, refuse que le Conseil régional y participe ; à ce jour, il n’est pas revenu sur cette décision, après que les Régions aient reçu des compétences essentielles en matière d’organisation des transports ferroviaires régionaux (Bardet, 1998).
21La construction d’une « identité rhône-alpine » (Jouve, 1998) passe certes par d’autres supports que l’évaluation, tels l’affichage d’une dimension européenne d’excellence par des coopérations avec le Bade-Wurtemberg, la Catalogne et la Lombardie (Kukawka, 1996), bénéficiant comme Rhône-Alpes d’une relative prospérité, mais aussi la constitution d’une expertise propre à la Région par le recrutement d’agents qui y trouvent un espace d’action autrement plus ouvert que dans l’administration d’État dont un certain nombre sont issus (Jouve, 1998). Par ailleurs, à l’attention de l’opinion la plus large, mais sans lien avec des évaluations que ne connaissent que les acteurs publics et socio-professionnels concernés, des campagnes de communication, fortement médiatisés autour de Charles Millon, appuient cette entreprise.
22Il reste qu’il y a eu, par le recours à un dispositif spécifique au Conseil régional, un souci manifeste de maîtriser l’évaluation comme cadre cognitif et comme outil de représentations, qui appuie des énoncés performatifs favorables à une identité régionale. On en donnera une dernière illustration en évoquant les groupes de suivi mis en place pour chaque évaluation engagée : plus ouverts qu’en Bretagne, puisque s’y retrouvent, dans une commune vérification de l’effectivité des principes d’action de la Région, non seulement quelques représentants des groupes politiques du Conseil régional, mais aussi des conseillers économiques et sociaux de la Région, des élus des organisations consulaires et des syndicats professionnels, ils permettent des débats de nature à renforcer une adhocratie régionale, d’autant que les voix dissonantes (les représentants de l’État, des départements et des villes, les garants des équilibres professionnels sectoriels) sont absents et/ou marginalisés.
Le renfort ambigu de l’évaluation des fonds européens
23L’Europe peut être aussi appelée à la rescousse pour légitimer la Région comme carrefour des politiques territorialisées, comme la plus légitime à les évaluer, alors que dans le cas particulier et tout à fait essentiel des fonds structurels, et à l’encontre du mythe de « l’Europe des régions », elle n’est pas le seul interlocuteur des services de l’Union européenne (Smith, 1995a ; Négrier, 1995). Le travail politique pour capter les fonds communautaires est aussi réalisé, non seulement de la part des services de l’État, mais aussi par les « “bons vieux territoires” de la politique en Europe que sont les counties, les départements, provinces et, bien sûr, les villes » (Négrier, 1998, p. 12) : la Région n’est qu’un partenaire parmi d’autres des politiques « régionales » européennes. D’où l’intérêt, sur un registre symbolique, d’une démarche évaluative qui survalorise l’échelon régional.
24Sur les cinq évaluations mises en œuvre de 1990 à 1996, le dispositif breton d’évaluation en a consacré deux à des programmes pour partie financés par les fonds structurels européens, (objectif 2 et objectif 5b). Est ainsi conforté le mythe d’une Région partenaire privilégié et qualifié de l’Union européenne, en même temps que ce dispositif permet de répondre aux attentes d’une bureaucratie communautaire très réceptive à la production d’expertises (Muller, 1997).
25Sur un autre registre, à un moment où Charles Millon entendait utiliser l’Europe pour afficher l’excellence régionale (Jouve, 1998), notamment dans le cadre du « Quadrige européen », les Régions constitutives s’étant autoproclamées « moteurs de l’Europe » (Kukawka, 1996), un responsable de la structure d’audit de gestion des organismes dépendants de la Généralité de Catalogne et le contrôleur de gestion de la Région de Lombardie ont été membres, pendant trois ans, de l’instance scientifique du dispositif régional d’évaluation. Leur présence sera faible mais le symbole est fort.
26L’invocation de la dimension européenne n’est pourtant pas sans ambiguïté pour les Régions : l’État peut aussi y trouver son compte d’autant que la place des services déconcentrés de l’État, et notamment du SGAR et des préfectures de départements, est importante en ce qui concerne les fonds structurels européens. C’est particulièrement net pour Rhône-Alpes (Balme et Jouve, 1995). De surcroît, l’obligation réaffirmée par les instances communautaires d’une évaluation des fonds structurels européens fragilise une appropriation régionaliste du recours à l’évaluation, qu’elle soit ex ante (Commission des communautés européennes, 1993), l’objectif étant alors une certaine standardisation des approches qui servent l’instruction des dossiers par les instances communautaires, ou qu’elle concerne l’utilisation effective des fonds (Monnier et Toulemonde, 1993 ; Monnier, 1997).
27On peut aussi illustrer la difficulté pour une Région à maîtriser une évaluation en établissant un parallèle avec une autre obligation d’évaluer : elle concerne des actions inscrites au contrat de plan État-Région de la troisième génération (1994-1999), les services de l’État étant alors, tout comme pour les fonds structurels, des partenaires incontournables de l’évaluation ; celle-ci contribue ainsi à faire davantage exister un État local/régional. En Lorraine par exemple, après que Gérard Longuet, président du Conseil régional depuis 1992, à la recherche d’une légitimité que les « affaires » où il a été mêlé ont compromise, a largement marginalisé le SGAR les premières années de son mandat, en s’appuyant pour évaluer sur un organisme qu’il contrôle, l’institut lorrain d’études et d’évaluation, le SGAR a précisément cherché, non sans quelques résultats, à récupérer du pouvoir au travers de l’évaluation des contrats de plan État-Région.
28Toutefois, les contours de l’évaluation ne s’expliquent pas seulement par le dispositif institutionnel et les objectifs qu’il sert, pas plus que par le seul champ de l’évaluation : ceux-ci sont aussi fonction de la structuration locale des communautés de politiques publiques.
L’inscription de l’évaluation dans les réseaux locaux d’analyse des politiques publiques
29Derrière l’outil, il y a aussi le réseau : une rapide sociogénèse de l’évaluation peut contribuer à le préciser. On ne saurait s’enfermer en effet dans une objectivation de celle-ci et de ses objets ; en particulier le détour par les personnes est nécessaire.
30Il y a notamment un préalable méthodologique à lever ; la méthode est en soi un problème, en ce qu’elle traduit et construit une vision des politiques publiques, en lien avec les caractéristiques des acteurs de l’évaluation. Parmi ceux-ci, il y a des experts, dont des universitaires. On peut imaginer que leur participation au processus repose au départ sur l’idée qu’ils ne doivent pas laisser toute leur place aux bureaux d’études et à l’élite administrative et technique du secteur public, qu’il convient de saisir l’occasion offerte, le rapport entre le décideur et le « savant » fut-il des plus difficiles. L’humeur réformatrice de la période gouvernementale Rocard a pu renforcer de tels choix : l’évaluation est une opportunité pour une mise en relation entre autorités publiques au sens large et experts, c’est-à-dire entre des acteurs institutionnels et des personnalités « indépendantes » qui se forgent, en relation avec des chargés d’évaluation, une opinion sur ce qu’est une politique publique. Se trouve du coup posée la question de la régulation entre le souci de servir la décision et les exigences des sciences sociales dans leur dimension universaliste, de l’équilibre entre « logiques de cogitation » et « logiques d’inter-action », selon l’heureuse formule de Jean Leca (1997).
31Ces coopérations entre les différents acteurs de l’évaluation traduisent aussi une configuration particulière, différente d’un lieu à l’autre, car marquée par toute une histoire locale. En quelque sorte, l’évaluation à l’échelle régionale s’inscrit dans une « local policy community », autour de systèmes de significations partagées, d’où sa fermeture à des systèmes concurrents de significations (Smith, 1995b) au risque de limiter le débat. Sur ce point aussi, on peut à nouveau opposer, au travers des exemples breton et rhône-alpin, deux configurations tout à fait différentes des communautés locales d’analyse des politiques publiques.
La réactivation des réseaux d’un régionalisme pacifié
32On rappellera que la version économico-statistique prédomine en Bretagne (Fontaine, 1996b). Elle repose sur une vision simple et finalement optimiste : sont largement présupposées une construction intellectuelle de l’action, la pertinence de celle-ci et celle du jeu des acteurs. Dans une définition très institutionnelle des politiques publiques, il y a le plus souvent exclusion d’une interrogation sur la mise en œuvre et sur la politique en elle-même. La distinction entre ce qui revient à l’État et ce qui revient à la Région n’est pas essentielle ; l’outil statistique rassemble. C’est ainsi que, pour les dix-sept programmes du dernier contrat de plan, la place des indicateurs quantitatifs a été poussée jusqu’au paroxysme, autour de douze classes d’indicateurs, déclinés autour de soixante-dix actions, soit au total cinq cents indicateurs retenus, à raison de sept par action (Baslé et Pelé, 1996). Qui plus est, tout débat autour des chiffres recueillis a été exclu : en 1997, les tableaux de bord ont été diffusés sans commentaire dans les services, à charge pour ceux-ci de méditer les indications chiffrées. Pour les évaluations dites « lourdes », telles celles conduites entre 1990 et 1995, les chargés d’évaluation ont cherché à mettre en évidence des effets globaux des programmes publics et d’autres plus ciblés, de mesurer l’utilisation des crédits, d’en préciser les bénéficiaires, mais aussi de réfléchir en terme de satisfaction et d’insatisfaction des destinataires. Par contre, les rapports sociaux et la politique ne sont guère traités, comme si les politiques publiques étaient… sans politique.
33Il y a en Bretagne une longue tradition de participation d’universitaires au débat public, comme l’illustre par exemple le fait que la Ville de Rennes a été dirigée depuis la Libération par trois universitaires et que les chefs de file de l’opposition ont souvent appartenu au même milieu. Le comité de liaison des intérêts bretons (CELIB) a plus précisément illustré, à partir de 1949 et autour de revendications concernant l’économie régionale et sa nécessaire planification concertée entre l’État et les différents acteurs de l’économie bretonne, cette rencontre entre acteurs politiques, professionnels, syndicalistes et universitaires, même si certaines disciplines y étaient peu représentées (le droit par exemple) et si, dans les années soixante, certains acteurs essentiels ont été écartés pour un engagement politique d’opposition au gaullisme (il fût considéré comme inacceptable à partir du moment où les électeurs bretons, à la faveur des élections législatives de novembre 1962, envoyaient une nette majorité de députés gaullistes à l’Assemblée nationale). La nécessité d’un régionalisme paisible a été posée en Bretagne au milieu des années soixante. En effet, lorsque le président de la commission d’expansion du CELIB, le professeur Michel Phlipponneau, tenant très en vue d’une géographie appliquée, dite « volontaire », auteur de nombreux travaux sur le développement du territoire (1959, 1960, 1972, 1981), et par ailleurs président du comité régional d’expansion économique (CREE), qui réunissait, en application d’un décret du 20 janvier 1961, représentants des organisations professionnelles et sociales ainsi que des collectivités locales, s’opposa clairement à partir de 1964 au président du CELIB, René Pleven, il se retrouva isolé : une dénonciation trop vigoureuse des orientations gouvernementales en matière d’aménagement du territoire était refusée.
34Les représentants de l’État ne l’acceptent évidemment pas davantage et ils sont rejoints dans leur refus par des universitaires et par les représentants des organismes consulaires : « d’excellents spécialistes, L. Mallassis et H. Krier, qui avaient pris une part importante à l’élaboration du projet de loi-programme, intégrés à temps partiel à la mission du préfet de région, ne participent plus aux réunions de la CREE, suivant l’exemple donné par les fonctionnaires régionaux depuis mars 1964. Le boycott de la CREE gagne progressivement les représentants des collectivités locales et des organismes patronaux » (Phlipponneau, 1972). « Immolé sur l’autel de la concertation » (Grémion, 1976, p. 38) lors de la mise en place en Bretagne de la CODER, Michel Phlipponneau se résout à quitter le CELIB en 1967.
35Par contre, on relève la permanence des économistes, à la suite du professeur Henri Krier dans les structures où le développement régional est pensé : à son initiative, la création en 1955, sous forme associative, du Centre régional d’études et de formation économiques (CREFE), qui édite la revue trimestrielle Les Cahiers économiques de Bretagne12, a été à cet égard essentielle. Au fil des années, un réseau d’action publique s’est construit, réunissant des administrations publiques (l’État dans la région, puis la Région en tant que collectivité territoriale), l’université et la recherche, tout particulièrement des professeurs de sciences économiques13, adeptes du développement régional, appuyés par des chercheurs travaillant à la station rennaise d’économie rurale de l’INRA, tels le professeur Malassis, auteur du volet agricole du programme du CELIB (Malassis, 1962), mais aussi les milieux professionnels avec en particulier les organismes consulaires14. La force du réseau a tenu aussi, jusqu’à une date récente, à l’absence d’alternative : les géographes de l’université Rennes II ont subi l’effet de la mise à l’écart de Michel Phlipponneau et les sociologues de cette université n’ont pas été davantage associés15.
36Dans le cas breton, le recours à l’évaluation s’inscrit donc dans une relation stable, avec un nombre réduit d’acteurs. On dira dans une perspective d’analyse structurale (Forsé et Langlois, 1997), qu’au-delà des individus qui y participent, émergent des régularités de comportements dans l’accompagnement des évaluations et dans les perceptions de l’action publique, qui pèsent sur les choix. Le comité régional d’évaluation et sa commission scientifique sont un effet émergent de ces interactions, consacrant des orientations qui ont eu un effet dissuasif auprès de nouveaux impétrants qui ont ensuite désinvesti la structure évaluative.
37Aujourd’hui encore, trois groupes d’acteurs, étatiques avec en particulier le Secrétariat général aux affaires régionales et la direction régionale de l’INSEE, régionalistes avec un directeur et des cadres de la Région, universitaires avec des professeurs de sciences économiques16, dominent le dispositif breton, particulièrement au travers de sa commission scientifique, sous le signe d’un régionalisme pacifié, fonctionnel et tendanciellement technocratique. À certains égards, le rôle essentiel aujourd’hui dans le dispositif évaluatif, du directeur de la Promotion et de la prospective du Conseil régional, anciennement ingénieur de recherche à la faculté de sciences économiques, spécialiste reconnu en économie régionale avant qu’il ne prenne en charge la plus grande direction de la Région, par ailleurs symbole tant à titre professionnel que militant d’un régionalisme expert et planificateur17, est significatif, au même titre que la personnalité du président de la commission scientifique, professeur de sciences économiques à l’université Rennes I, secrétaire général du CREFE jusqu’en 1995 et directeur des Cahiers économiques de Bretagne18.
L’activation des réseaux d’une double militance, évaluative et décentralisatrice
38À l'inverse, la volonté d’isoler les mérites d’une Région et notamment le souci de valoriser des programmes innovants qui lui soient spécifiques, en réalité à partir d’engagements budgétaires relativement modestes tant l’imbrication domine l’action publique locale, va plus favoriser en Rhône-Alpes l’analyse des processus et des jeux des acteurs que la recherche de résultats quantifiés et la définition d’indicateurs (d’Arcy, 1996).
39L’insistance dans les évaluations sur les systèmes d’acteurs est à mettre en relation avec les personnes-ressources mises à contribution, lors de la construction du dispositif. Par la suite, la composition de la structure scientifique y contribuera aussi : par exemple, parmi les huit membres nommés au début de l’année 1995, six sur huit appartiennent au secteur de l’université et de la recherche, dont trois en sociologie et science politique.
40Quand Charles Millon inscrit à l’agenda l’institutionnalisation locale de l’évaluation, toute une réflexion est déjà engagée en Rhône-Alpes dans le cadre du réseau RREPEL, partisan d’une évaluation « pluraliste, humaniste, démocratique », qui ne soit pas un « instrument de contrôle aux mains de jacobins », et organisateur de diverses manifestations dont un colloque de janvier 1989, ouvert par Charles Millon (Réseaux et recherches pour l’évaluation des politiques économiques locales, 1991). Il est à noter que ce réseau, constitué au printemps 1988, à l’initiative d’un groupe de travail interne à la Chambre régionale des comptes de Rhône-Alpes19, s’élargira progressivement à divers partenaires publics, universitaires ou chercheurs, tel Eric Monnier… Le dispositif retenu par Charles Millon est le résultat des propositions conjointes d’Eric Monnier, de Jean-François Larger, président de la Chambre régionale des comptes et de Jean-Louis Quermonne (Quermonne, Larger et Monnier, 1991).
41Eric Monnier, directeur du Centre spécialisé en évaluation des politiques publiques (CEOPS) à l’École nationale des travaux publics de l’État (ENTPE) de Vaux-en-Velin, siège alors au Conseil scientifique de l’évaluation (CSE) et est l’auteur d’un ouvrage faisant autorité sur l’évaluation (Monnier, 1992) : il s’y fait l’avocat d’une évaluation pluraliste. Jean-François Larger a présidé un temps l’association Services publics, créée en 1980 en réaction aux thèses néo-libérales ; regroupant divers hauts fonctionnaires, et notamment des membres de la Cour des comptes, elle a réclamé une modernisation du service public. La participation de l’association au « système d’action réformateur » (Chaty, 1997), particulièrement sous le gouvernement Rocard, a été essentielle : la circulaire de février 1989 sur le « renouveau du service public », qu’a rédigée l’un des siens, préconise, entre autres axes de réforme, « le devoir d’évaluation ». Quant à l’itinéraire biographique de Jean-Louis Quermonne, il suggère que ce sont à la fois une réflexion et des pratiques, les unes et les autres favorables à la décentralisation, qui sont sollicitées. Auteur, dès les années soixante, de travaux sur la dimension territoriale de l’action publique et la « montée en force de l’idée décentralisatrice, notamment au travers du régionalisme fonctionnel associé à l’aménagement du territoire » (d’Arcy et Rouban, 1996, p. 17), ayant donné, en créant le CERAT alors qu’il était directeur de l’IEP de Grenoble, une assise institutionnelle à des recherches individuelles et collectives intégrant la dimension planificatrice, Jean-Louis Quermonne a été aussi chargé de mission près du secrétaire d’État à l’enseignement supérieur, Jean-Pierre Soisson (1974-1976), puis quelque temps directeur des enseignements supérieurs ; il y a adopté des prises de positions très favorables à l’autonomie des universités, qui n’en font pas un jacobin ! Il a aussi appartenu à des structures évaluatives, avant même que celles-ci ne se développent, tel le comité national d’évaluation des établissements publics à caractère scientifique, culturel et professionnel (CNE) dans les années quatre-vingt et a conduit des recherches sur les politiques de la science et les pratiques évaluatives (Quermonne, 1984, 1986a, 1986b, 1991, 1995).
42Par ailleurs, le fait que la présidence du dispositif ait été confiée successivement à deux politistes, Jean-Louis Quermonne (1992-1995) puis François d’Arcy, atteste, en même temps qu’il consacre leurs qualités propres, de la place en Rhône-Alpes de l’IEP de Grenoble, dont ils ont été d’ailleurs l’un et l’autre directeurs, et par lequel sont passés nombre d’élus et de cadres administratifs opérant dans la région.
Un espace restreint de régulation de l’action publique
43Au-delà des ambitions affichées et des personnes mobilisés pour définir et légitimer le recours à cette démarche, la question qui reste à examiner est celle des acteurs du travail évaluatif proprement dit. On cherchera à y répondre de deux manières : d’abord, à partir des évaluations conduites dans la région Bretagne, puis en cherchant à mettre en perspective le design institutionnel de l’évaluation des contrats de plan État-Région dans vingt régions.
L’évaluation en région : un échange administratif
44La situation de Rhône-Alpes est complexe et délicate à caractériser en ce qui concerne la maîtrise de l’évaluation, entre d’un côté la définition d’un dispositif où le Conseil régional est amené à valider les rapports d’évaluation, ce qui suggère une appropriation de l’évaluation par le niveau politique, qui ne serait pas limitée en bonne logique à des questions d’affichage régional, et d’un autre côté, une pratique qui indique tant un intérêt limité des membres de l’assemblée régionale que la montée des services. Comme le précise un chargé de mission auprès du directeur général des services du Conseil régional, « l’utilité des évaluations concerne sans doute plus l’amélioration des procédures et le renforcement du consensus que des remises en cause globale de politiques » (Chappuis, 1996, p. 174). Les dernières évaluations en cours indiquent d’ailleurs une nette évolution vers l’aide à la décision, cet aspect utilitariste étant plus propice au débat en cercle restreint qu’à un débat élargi et à la remise en cause des politiques.
45En Bretagne, l’évaluation est formellement l’affaire de quatre groupes institutionnels : il s’agit d’abord du Comité régional de l’évaluation20 (CRE), composé d’un représentant de la préfecture de Région, d’un représentant du Conseil régional, ces deux institutions cooptant le président du CRE et, pour avis, le président de la commission scientifique, le rôle de ce comité étant de décider des évaluations à mener et des suites à y donner, notamment en terme de publicité. Il s’agit par ailleurs d’une commission scientifique dont les finalités sont affichées dans le qualificatif, d’un groupe de suivi de l’évaluation, et bien évidemment des chargés d’évaluation.
46On doit d’abord préciser qu’il y a en réalité, au-delà de cette segmentation institutionnelle, des « permanents » de l’évaluation qui cadrent celle-ci : le président du comité régional d’évaluation, le président de sa commission scientifique, le directeur de la promotion et de la prospective de la Région, le contrôleur de gestion de la Région, le chef du service des études du SGAR, les uns et les autres se rencontrant régulièrement pour faire le point sur le fonctionnement du dispositif et ses perspectives. C’est là que se situe la maîtrise de l’évaluation21. Par ailleurs, en ce qui concerne la commission scientifique, il convient de distinguer clairement compétence professionnelle et rigueur dans la démarche d’une part, régulation scientifique d’autre part. Il y a rigueur au travers d’un paradigme clairement affiché : l’évaluation n’est pas une manière de préparer sournoisement un contrôle ou des sanctions. Il existe un cahier des charges précis et les finalités sont transparentes. Si le système fonctionne largement à la confiance, notamment entre la commission scientifique et le groupe de suivi d’une évaluation, où elle est représentée, et qu’anime toujours un des siens, les hypothèses de départ peuvent être réexaminées, conformément au paradigme de la recherche. Quant à la compétence, elle se vérifie surtout autour de la compréhension de l’approche économico-statistique : le passage par l’ENA, l’École Polytechnique, l’École nationale des statistiques appliquées à l’économie (ENSAE) ou encore par des écoles d’ingénieurs et les facultés de sciences économiques y a préparé une majorité de membres de la commission scientifique. Une tendance lourde des pratiques d’expertise en France se vérifie : l’appartenance aux grands corps de l’État et/ou la détention d’un poste administratif élevé valent présomption de compétence scientifique (Restier-Melleray, 1990 ; Spenlehauer, 1995) et donc de professionnalisme… en matière évaluative. Il en résulte un certain type de travail qui n’exclut pas de vrais débats, mais qui en même temps conditionne les travaux évaluatifs. Ici, l’approche sociologique, à l’inverse fortement représentée en Rhône-Alpes, souffre de l’isolement de ses « représentants » (Fontaine, 1996b, cf. le tableau de la p. 57) ; du fait d’un pluralisme relatif et inégalitaire, la régulation scientifique est pour l’essentiel limitée à la vérification de la qualité de l’approche socio-statistique.
47Même si le caractère local de la structure atténue quelque peu les exigences, l’expert de la commission scientifique a le profil du « sage » siégeant dans nombre de commissions indépendantes22, en terme de capital culturel et notamment universitaire, d’âge (la majorité des membres ayant ici dépassé la quarantaine), de titres et de positionnements institutionnels. Finalement, comme cela a été montré en ce qui concerne le comité national d’éthique (Memmi dans cet ouvrage) et bien que cela relève de l’implicite et de l’inintentionnel, il y a dans ce type d’institutions, toute une mise en scène de la science et de l’expertise : on ne vote pas, on procède par consensus, et, sauf impérieuse nécessité, il y a une mise à distance des savoirs particuliers et des points de vue partiels par un savoir commun au plus grand nombre. Le ton même du travail en commission scientifique est significatif : un style de relations très policé, un ton souvent protocolaire dans les échanges, du moins les premières années avant qu’une interconnaissance plus forte apporte un peu plus de liberté, sont également significatifs de cette retenue : on peut parfois avoir l’impression qu’il s’agit plus d’une séance de travail entre hauts fonctionnaires, représentant leurs administrations respectives, assistés de quelques experts, que d’un travail à finalité scientifique. Il y a un ton prudentiel qui est révélateur sur ce qui est « souhaitable » et de ce qui doit être évité autant que faire se peut : sans que ses membres en aient nécessairement conscience, la commission scientifique sert, dans une large mesure, une conception de l’évaluation qui interdit le débat sur les objectifs et les mises en cause trop nettes d’acteurs, surtout publics ; aussi, des questionnements qui affleurent dans les rapports d’évaluation de la politique de la ville vont susciter perplexité et malaise du plus grand nombre, tant ils mettent en évidence les incertitudes de l’action publique urbaine. À l'opposé, une bonne évaluation est celle qui permet, à partir d’un savoir surtout quantitatif, de définir les moyens d’améliorer les processus d’action.
48Ces compagnonnages, au sein même du Comité régional d’évaluation et de sa commission scientifique, sont marqués par une longue proximité avec le politique, sur une base élitaire, faite de performances consensuelles et d’arrondissement des angles. Il ne s’agit pas par l’évaluation d’« exciter » le politique mais de favoriser la bonne gestion en même temps que la paix civile sur fond de « fin des politiques ». Les impertinences d’un plus ample questionnement sont peu compatibles avec la culture et les logiques professionnelles de la majorité des membres de la commission. Celle-ci ne peut être l’aiguillon d’une interrogation sur la pertinence d’un programme public. La part faible d’acteurs de l’évaluation, se situant sur d’autres réseaux et d’autres terrains scientifiques lors de la mise en place de la structure, un processus de filtrage des interlocuteurs pertinents par démobilisation progressive de personnes ayant peu de moyens en la matière (les juristes) ou engagés sur des thématiques différentes (les politistes), illustrent cette construction de l’évaluateur « valable ».
49C’est surtout dans le groupe de suivi mis en place pour chaque évaluation, qu’il y a le plus débat mais il ne faut pas se méprendre sur sa portée. L’originalité et l’intérêt du groupe de suivi, concrétisant cette « éthique procédurale de discussion » qu’a idéalisée Jurgen Habermas, est de permettre l’expression des partenaires d’une politique mais cela s’inscrit dans un espace restreint. À cet égard, le pluralisme réel des groupes de suivi a pu contribuer par des rencontres répétées, tout au long de l’évaluation, entre chargés d’évaluations, le ou les représentants de la commission scientifique, les membres de diverses administrations concernées par le programme évalué, les acteurs de terrain qui en font aussi partie (par exemple, des chargés d’opération DSQ pour la politique de la ville ou encore des professionnels du tourisme rural), à une argumentation forte. Celle-ci peut favoriser une évolution des relations de travail, alors même que les parties à un programme ont des intérêts et des sensibilités différentes. Le groupe de suivi est alors un moyen de ce que Eric Monnier a appelé « l’évaluation par les acteurs sociaux ». Réunissant les partenaires de l’action publique, le travail en groupe de suivi peut déboucher, dans une certaine mesure, sur l’émergence de « référentiels » communs, à l’intérieur d’un périmètre évaluatif qui concerne, il est vrai, plus le fonctionnement des politiques que leurs finalités.
50Une fois l’évaluation bouclée par la remise des derniers rapports des chargés d’évaluation, les prolongements de celle-ci sont particulièrement significatifs du confinement du débat à un nombre réduit d’acteurs. Au-delà d’une diffusion parcimonieuse et sélective des rapports, fût-ce à l’intention des élus du Conseil régional de Bretagne, le débat est en effet des plus limités. Pour la période 1991-1995, sur cinq évaluations réalisées, il y a eu une seule réunion de compte-rendu près des acteurs institutionnels. Certes, quelques critiques minoritaires qui soulignaient ce déficit de publicité (Fontaine, 1996b) ont eu quelque écho, semble-t-il, particulièrement près des présidents du comité régional d’évaluation et de la commission scientifique : l’évaluation d’un programme de formation professionnelle a donné lieu à une présentation des premiers rapports évaluatifs devant une quinzaine de conseillers régionaux. Mais, pour l’essentiel, le recours à l’évaluation a été et demeure transgressif par rapport au personnel politique du Conseil régional, destinataire de 1990 à 1996 de deux documents seulement, l’un étant une synthèse des évaluations réalisées, l’autre concernant l’évaluation des contrats de plan. La Bretagne se différencie là du dispositif rhône-alpin où le Conseil régional valide l’évaluation, fût-ce sans grand enthousiasme. Dans l’exemple breton, l’évaluation est manifestement un moyen de renforcer les services du Conseil régional, face aux élus. Il y a comme une vision négative du conseiller régional de base et comme un air de nostalgie, celle des temps heureux d’une Région fonctionnelle, technocratique et descendante. Le décalage entre d’un côté l’ambition régionaliste des directeurs de la Région tout comme la recherche, tant au SGAR que dans diverses directions régionales de l’État, d’un positionnement renforcé de celui-ci en région, régulièrement annoncé par les textes mais autrement plus difficile à traduire dans les faits et, d’un autre côté, la persistance d’une conception plus interdépartementaliste chez nombre d’élus, en particulier le président du Conseil régional, Yvon Bourges, peut expliquer la mise à l’écart des conseillers régionaux : on craint dans les services de la Région que des préoccupations micro-territoriales ne retardent l’affirmation régionale.
51On est d’autant plus dans une forme de convivialité et non de confrontation d’idées, l’échange est d’autant plus courtois et sans surprise que l’évaluation n’a pas de public au double sens de récepteur et d’émetteur d’opinions. Les cadres dirigeants des services de l’État et de la région se sont opposés en effet à une large publicité des rapports d’évaluation : la solution retenue a été d’adresser au quotidien régional Ouest France de maigres communiqués, d’un ton très administratif et au contenu consensuel et positif, au prix, s’il y a eu, d’un lissage de quelques aspérités contenues dans les rapports, peu propice à une utilisation journalistique. Le quotidien omet d’ailleurs de les répercuter : la structure de la presse quotidienne régionale privilégie en effet des espaces médiatiques infra-régionaux (départements, villes) et/ou inscrit les rubriques traitées dans des repères thématiques qui suscitent l’intérêt du lectorat, anticipé par rapport à ce que la rédaction connaît de ses exigences et de ses habitudes.
52Ainsi, à l’évidence, la non-utilisation de l’information relative à l’évaluation confirme que par rapport à la région, la PQR ne contribue pas à faire « émerger une participation élargie à la politique régionale ou à créer des facteurs de citoyenneté active » (Dauvin, 1993, p. 315). L’évaluation n’est pas un moyen, à l’intention d’un large public, de réduire l’opacité des politiques publiques et de nourrir la démocratie ; elle n’est pas émancipatoire en ce qu’elle permettrait la prise de parole et la contradiction. Elle ne participe pas à la démocratisation de la vie publique, mais au contraire à la reféodalisation de l’espace de la décision, dans le cadre d’une décentralisation qui, si elle a marqué le « sacre des notables » (Rondin, 1985), du moins au niveau des exécutifs locaux, a aussi permis l’émergence, particulièrement dans les Régions, d’une technocratie territoriale, faiblement tributaire d’assemblées régionales, que la loi du 31 décembre 1985, relative au cumul des mandats, a vidé des principaux « ténors » de la vie politique ; une majorité des conseillers régionaux a d’ailleurs un accès limité aux services (Dauvin, 1994 ; Nay, 1997). L’évaluation n’est pas un événement perturbateur susceptible d’avoir un fort impact en terme de reformulation des politiques et ses retombées techniques paraissent assez légères. On peut à cet égard établir un parallèle avec l’évaluation des contrats de plan État-Région, telle qu’elle se dessine aujourd’hui23.
Le design institutionnel de l’évaluation des contrats de plan : un débat en milieu autorisé
53Une circulaire (9 décembre 1993) du Premier ministre, relative à la « mise en œuvre de la démarche d’évaluation dans les procédures contractuelles (contrats de plan-contrats de ville) », préparée par le Commissariat général du Plan, a entendu imposer un système uniforme et monopolistique d’évaluation qui renforce l’inscription de l’évaluation dans un schéma de régulation entre administrations.
54Pour vingt régions24 dont on a pu analyser l’organisation de l’évaluation, fortement suggérée par la circulaire préparée au Commissariat général du Plan, l’évaluation s’organise autour d’un comité de pilotage et d’une instance technique « comprenant notamment des fonctionnaires et des experts,…, constituée pour jouer le rôle de maîtrise d’ouvrage ». D’emblée, l’évaluation est posée comme devant être guidée par des acteurs politico-administratifs de premier ordre (présidents des Conseils régionaux, préfets de région) qui disposent, d’un point de vue formel, du pouvoir décisionnel au travers du comité de pilotage, qu’il s’agisse de la nature de l’évaluation, du cahier des charges et des suites à donner à l’évaluation ; quant aux principaux fonctionnaires de l’État en région et de la Région, il est prévu qu’ils figurent à titre essentiel, quand ce n’est pas exclusif, dans l’instance technique. Dans cette perspective, l’institutionnalisation d’un accompagnement scientifique, qui pourrait faire contrepoids à des logiques trop exclusivement administratives, non prévu en tant que tel dans la circulaire, apparaît comme une préoccupation marginale ; au-delà des variations sémantiques, une majorité de Régions en reste d’ailleurs à la structure minimale énoncée par la circulaire : comité de pilotage/instance technique25.
55Quand, dépassant ce schéma, une structure scientifique est en place, indépendamment des deux précédentes, c’est l’héritage d’une antériorité en matière évaluative. Toutefois, seule la région Rhône-Alpes, gardant sur ce point son originalité, dispose pour l’évaluation des CPER d’un comité scientifique qui soit composé uniquement d’experts extérieurs au monde de l’administration locale et aux services déconcentrés de l’État. Il en va autrement, outre la Bretagne, pour les Pays-de-la-Loire et Midi-Pyrénées : l’instance dite scientifique, en réalité « scientifico-administrative »26 selon la formule du président de l’une d’entre elles, se caractérise alors par une mixité entre cadres de l’administration publique et des « personnes qualifiées » les plus diverses. Le risque de confusion des genres peut être d’ailleurs clairement perçu : les co-signataires de la convention Midi-Pyrénées précisent vertueusement que le « dispositif (évaluatif) doit veiller à ne pas dénaturer ni à être influencé par les logiques institutionnelles de chacun des partenaires de l’évaluation » !
56Quant aux investigations en cours, portant le plus souvent, exception faite de la politique de la ville, sur des programmes relativement simples et ayant un intérêt stratégique pour les commanditaires, ils concernent d’abord l’efficacité, puis l’impact, ensuite et déjà moins souvent l’efficience. Par contre, l’hypothèse d’un examen de la pertinence d’un programme public est très rarement envisagée : elle est évoquée pour le Nord-Pas-de-Calais et la Lorraine mais dans ces deux cas, le dispositif est très encadré par la Région, tandis que c’est un arrêté du préfet de Région qui en fait la mention pour la Corse ! Le plus souvent cette perspective est tue, voire même explicitement interdite comme en Aquitaine : « Les objectifs de ces programmes ne seront discutés, ni remis en cause par l’évaluation qui devra rechercher uniquement si les moyens engagés ont bien permis d’obtenir les résultats politiques souhaités »27. Il est d’ailleurs clair pour tel président d’un comité de pilotage que « l’État et la Région ne sont pas à la recherche d’une cour d’arbitrage. Ils veulent des éléments objectifs. Nous ne sommes pas un contrepouvoir ; sinon je ne donne pas cinq ans de vie aux comités régionaux »28.
57On attend de l’évaluation qu’elle permette de s’enquérir de façon collective, entre acteurs institutionnels, des effets produits sur le terrain par l’action publique, et pour les plus ambitieux, qu’elle favorise une véritable reconstruction méthodique des « référentiels » qui soutiennent implicitement ou explicitement les interventions (pour le Nord-Pas-de-Calais, Horaist, 1997) : l’évaluation devrait ainsi faciliter le repérage des marges d’évolution, en particulier pour la prochaine génération des CPER (2000-2006).
58En revanche, dans l’ensemble des régions, on partage une même volonté de pratiquer l’évaluation en cercle restreint. L’évaluation est ainsi définie en dehors de tout public. Le protocole d’accord concernant la Lorraine est à cet égard éloquent : il dispose que si on doit évaluer les programmes publics, entre acteurs publics, dans « un esprit de débat contradictoire, particulièrement pour tout ce qui concerne les actions menées en partenariat avec les collectivités locales », et ce « tout au long de la démarche d’évaluation », par contre, il faudra « se garder de la tentation d’exploiter les résultats d’une évaluation de façon polémique ou au contraire à des fins d’autojustification, et surtout éviter que l’évaluation devienne une forme de contrôle externe ».
59À l’occasion d’une rencontre du 20 juin 1997, organisée à Rennes et réunissant des représentants de quatorze comités régionaux d’évaluation, diverses interventions des représentants des SGAR ou des Conseils régionaux ont bien illustré comment le gommage d’enjeux, qui seraient conflictuels parce que trop spécifiques à un niveau de collectivités, tout comme l’inscription de l’évaluation dans une communauté administrative d’analyse des politiques publiques, nourrissent une pratique feutrée de l’évaluation locale des politiques territorialisées : « On l’a (l’évaluation) fait tous ensemble » ; « Les personnes s’entendent bien » ; « Cela se passe bien » ; « Il y a de bonnes relations Conseil régional/État, » ; « Cela se passe en bonnes ententes avec le SGAR ».
60On a vu au début de ce chapitre comment à partir d’un dispositif permettant de mieux connaître l’action publique, une montée en généralité était opérée à partir d’une rhétorique démocratique qui donnait un statut noble et inédit à une démarche d’expertise, qui serait un jugement sur la valeur des actions, ouvrirait le cercle des discutants et susciterait « une confrontation démocratique sur les buts poursuivis et les moyens retenus » (Lascoumes, 1998, p. 25). L’étude de diverses pratiques invite à privilégier un registre autrement plus pragmatique : l’évaluation c’est surtout la production d’informations que souvent l’on aurait déjà dû déjà constituer dans le cadre d’une gestion bien conduite, l’élaboration d’indicateurs et de tableaux de bord, autrement dit un outil de « modernisation administrative, un outil parmi d’autres pour accompagner la gestion quotidienne des agences et des acteurs publics » (Thoenig, 1998, p. 14). Lorsqu’elle n’est pas appropriée par un seul acteur, elle est aussi un moyen de régulation entre « partenaires ». Il n’y a certes pas lieu de tenir ces apports comme négligeables (Thoenig, 1998) mais, sans vouloir opposer évaluation managériale et évaluation démocratique, force est de constater que l’institutionnalisation de l’évaluation au niveau local ne nourrit pas une citoyenneté active. Ce n’est pas un espace qui permettrait une coproduction de l’action publique. S’il y a bien des arènes évaluatives, que caractérisent des positionnements institutionnels qui font les personnes « qualifiées » et définissent des objectifs de l’évaluation, on est bien en peine de trouver localement des forums qui y fassent écho !
61On se permettra une ultime remarque. Elle concerne la participation de l’universitaire et du chercheur, sollicités pour participer à l’évaluation : serait-il seulement un expert, garant d’une utilisation pertinente des sciences sociales « utiles », rentrant dans les raisons des décideurs, ou ne lui appartiendrait-il pas aussi d’être un… intellectuel, attentif à ce que des évaluations soient posées comme un moment de développement de nouvelles formes de la conscience et de la pratique politique (Conan, 1998), plutôt que d’être vidées de leurs potentialités refondatrices des politiques publiques ?
Notes de bas de page
1 Région avec une majuscule désignera dans ce texte la collectivité territoriale, tandis qu’une minuscule renverra soit au découpage administratif dans lequel s’inscrit l’action des services de l’État, soit à un simple espace géographique.
2 Dans le cas breton, le travail s’appuie pour partie sur une participation de près de six années aux structures évaluatives, de la mise en place (1990) à 1996. La réflexion sur Rhône-Alpes doit beaucoup aux documents qu’a bien voulu nous communiquer Michel Auvollat, secrétaire du comité scientifique d’évaluation de la Région Rhône-Alpes, à quelques échanges avec lui et quelques autres observateurs privilégiés de la démarche évaluative, dont Vincent Spenlehauer (RIVES, UMR CNRS/ENTPE). Il reste que, selon la formule consacrée, les analyses ici proposées n’engagent que leur auteur.
3 Tout en adoptant ici une perspective différente, on poursuit une analyse qui dans un premier temps a été consacrée aux usages sociaux des sciences sociales dans le cadre de l’évaluation et a présenté plus en détail tant les dispositifs que les présupposés théoriques de l’évaluation (Fontaine, 1996b).
4 Le président du conseil économique et social de Midi-Pyrénées, élu en 1992, a largement établi sa notoriété dans les forums portant sur les politiques publiques territorialisées et leur évaluation par des participations répétées à divers colloques, où il a présenté une expérience qui n’a pourtant fonctionné que huit mois de l’année 1992 (par exemple, Chauzy, 1995).
5 59,86 % des électeurs bretons ont voté « oui » au référendum du 20 septembre 1992 portant sur la ratification du traité de Maastricht. On peut aussi relever avec Andy Smith que, sur la période 1988-1994, pour ce qui concerne les fonds structurels européens dits d’objectif b (développement rural), « si en Bretagne, les instances régionales sont bien impliquées dans les processus de la concentration de l’aide communautaire, leurs homologues en Rhône-Alpes sont plutôt crispées » (Smith, 1995a, p. 153).
6 René Pleven a présidé le CELIB de 1951 à 1972, tout comme la CODER de Bretagne de 1964 à 1972.
7 Charles Millon devient président du Conseil régional, en 1988, à l’âge de 43 ans ; il est alors député de l’Ain, depuis 1978, et maire de Belley, commune de 7 000 habitants. Il obtiendra un premier poste ministériel dans le gouvernement Juppé comme ministre de la Défense (1995-1997).
8 A la tête d’une majorité en apparence relative aux lendemains des élections de mars 1992, Yvon Bourges a toutefois retrouvé rapidement une majorité stable après le ralliement de trois conseillers atypiques et avec l’appui de conseillers issus de Génération Écologie.
9 On peut imaginer que les travaux de Chantal Millon Delsol ne sont pas étrangers à cette invocation récurrente de la subsidiarité (Millon Delsol, 1992, 1993).
10 Région Rhône-Alpes, Rhône-Alpes, réinventons la proximité, schéma d’aménagement et de développement régional, Lyon, p. 56, cité par Martin Vanier, (1995).
11 Duclos (R.), président de la commission n° 4 « Agriculture et développement rural », Conseil économique et social de la Région Rhône-Alpes, Avis du Conseil économique et social sur le rapport d’évaluation des PIDA, assemblée plénière du 4 octobre 1994.
12 La revue Les Cahiers économiques de Bretagne est toujours diffusée aujourd’hui, vers environ cinq cents abonnés ; tous les conseillers régionaux et conseillers économiques et sociaux de la Bretagne en sont destinataires.
13 Yves Morvan, professeur de sciences économiques à l’université de Rennes I, par ailleurs membre de la commission scientifique du comité régional d’évaluation est président du Conseil économique et social de la Région depuis 1992.
14 Il est significatif que l’actuel président du comité régional d’évaluation de Bretagne, choisi après le départ d’un premier président, soit l’ancien et toujours influent président de la Chambre régionale du commerce et de l’industrie.
15 L’IEP de Rennes est récent puisque ouvert en 1991 et le CRAP (Université de Rennes I, IEP, CNRS) ne s’est clairement engagé dans l’étude des politiques publiques qu’à la même date.
16 Les approches économiques ont aussi marqué la formation de cadres administratifs : le chef du service des études du SGAR est docteur en sciences économiques. Le chef du service des études de la CRCI, tout comme le contrôleur de gestion de la région Bretagne, ont également effectué un troisième cycle d’économie.
17 Il est par ailleurs vice-président du conseil d’administration du puissant Crédit mutuel de Bretagne.
18 Il s’agit de Maurice Baslé, par ailleurs membre du Conseil scientifique de l’évaluation, institué par le décret du 22 janvier 1990 relatif à l’évaluation des politiques publiques.
19 Parmi les membres les plus actifs de ce groupe de travail de la Chambre régionale des comptes, on signalera Jacques Horaist, qui a par ailleurs animé, dans le cadre d’un groupe d’étude du Commissariat général du Plan, toute une réflexion sur les expériences locales d’évaluation (Horaist, 1992) et a en charge depuis 1995 le développement de l’évaluation à la Région Nord-Pas-de-Calais.
20 On peut ajouter un comité consultatif de l’évaluation mis en place en 1995. Théoriquement réuni deux fois par an, il répond au souci d’informer les préfets de départements et les présidents de Conseils généraux de l’activité du Comité régional d’évaluation de Bretagne et, indirectement en sollicitant leur avis, de les amener à valider un échelon d’expertise supra-départemental.
21 Le contrôleur de gestion de la région, le chef du service des études du SGAR, le président de la commission scientifique sont par ailleurs présents dans le groupe de suivi des cinq évaluations conduites de 1991 à 1995.
22 Sur les commissions de sages, cf. la contribution de Myriam Bachir à cet ouvrage.
23 Initialement pour la période 1994-1998, la durée d’application des contrats de plan de la « troisième génération » a été prolongée d’un an par décision ultérieure du gouvernement Juppé.
24 On s’appuie ici sur les courriers et documents que les Régions et/ou les SGAR ont bien voulu nous faire parvenir, à la suite d’une lettre que nous leur avions adressée le 15 octobre 1996 ainsi que sur les débats d’une journée interrégionale des comités régionaux d’évaluation, tenue à Rennes le 20 juin 1997, à l’initiative du Comité régional de l’Évaluation. Les renseignements et documents recueillis sur l’évaluation des CPER concernent plus précisément les vingt régions suivantes : outre la Bretagne et Rhône-Alpes, l’Aquitaine, l’Alsace, l’Auvergne, la Basse-Normandie, la Bourgogne, le Centre, Champagne-Ardenne, la Corse, la Franche-Comté, la Haute-Normandie, l’Ile-de-France, le Limousin, la Lorraine, Midi-Pyrénées, le Nord-Pas-de-Calais, les Pays-de-la Loire, la Picardie, Poitou-Charentes.
25 Un assouplissement très relatif de ce confinement politico-administratif est constitué sous des formes diverses, par l’intégration ponctuelle ou en continu de « personnes qualifiées » dans le comité de pilotage et/ou le comité technique qui suit une évaluation. La Franche-Comté prévoit même un collège scientifique au sein du comité de pilotage.
26 Journée interrégionale des comités régionaux d’évaluation, Rennes, le 20 juin 1997.
27 Préfecture de la Région Aquitaine, Région Aquitaine, L’évaluation dans le contrat de plan, document non daté, ronéoté, p. 1.
28 Journée interrégionale des comités régionaux d’évaluation, Rennes, le 20 juin 1997.
Auteur
Le texte seul est utilisable sous licence Licence OpenEdition Books. Les autres éléments (illustrations, fichiers annexes importés) sont « Tous droits réservés », sauf mention contraire.
La proximité en politique
Usages, rhétoriques, pratiques
Christian Le Bart et Rémi Lefebvre (dir.)
2005
Aux frontières de l'expertise
Dialogues entre savoirs et pouvoirs
Yann Bérard et Renaud Crespin (dir.)
2010
Réinventer la ville
Artistes, minorités ethniques et militants au service des politiques de développement urbain. Une comparaison franco-britannique
Lionel Arnaud
2012
La figure de «l'habitant»
Sociologie politique de la «demande sociale»
Virginie Anquetin et Audrey Freyermuth (dir.)
2009
La fabrique interdisciplinaire
Histoire et science politique
Michel Offerlé et Henry Rousso (dir.)
2008
Le choix rationnel en science politique
Débats critiques
Mathias Delori, Delphine Deschaux-Beaume et Sabine Saurugger (dir.)
2009