L'évaluation de l’efficacité de la formation a toujours été et demeure une question difficile à résoudre pour la très grande majorité des organisations. En principe, une initiative de formation à succès devrait avoir un impact visible sur des indicateurs tels que les ventes, la qualité du service, la productivité, la réduction des accidents, etc.
Toutefois, cette relation semble si difficile à établir pour plusieurs services de formation qu’on peut parfois jeter l’éponge, soit par manque de moyens, de connaissances ou de motivation. Alors, on se replie sur la pratique la plus usuelle qui consiste à distribuer un questionnaire de satisfaction à la fin des sessions de formation avec la problématique que ce type de questionnaire donne très peu d’information sur sa qualité et son impact réels.
Pourtant, les services de formation doivent répondre de leur mission et de leur efficacité, ce qui passe inévitablement par la publication de mesures et de résultats. Bref, il s’agit d’une tâche qui peut sembler ardue, mais qui s’avère incontournable.
Alors que faire et surtout comment procéder dans un contexte où les moyens et le temps sont limités?
Bonne nouvelle! Il existe des méthodes qui sont relativement faciles à mettre en œuvre et qui permettent d’établir des relations crédibles entre une initiative de formation, l’acquisition des comportements souhaités et l’amélioration d’indicateurs de performance.
En gardant à l’esprit le principe « mesurer mieux et systématiquement », on évitera que les coûts de l’évaluation excèdent les bénéfices. Voici quelques pratiques pour accroître votre efficacité dans l’évaluation de vos projets de formation.
Pratique 1 – Optimiser la mesure durant la formation
D’abord, il s’agit d’inclure systématiquement une évaluation des apprentissages lors de la formation. En effet, en plus d’être un prédicteur de transfert, l’évaluation permet de s’assurer que l’apprenant maîtrise bien la compétence que l’on souhaite lui enseigner. Il faut donc aller au-delà du savoir lui-même, mais également évaluer la pratique des comportements souhaités. Alors que cela peut paraître évident, trop souvent on omet de faire cette simple vérification par manque de préparation ou simplement par oubli. Les moyens pour le faire sont nombreux : examen formel, mise en situation pratique, observation participante ou jeu sérieux.
Ensuite, il est recommandé de faire évoluer le questionnaire distribué aux participants à la fin d’une session pour y inclure des questions mesurant les prédicteurs de transfert des apprentissages. Plutôt que de poser les questions habituelles en lien avec la satisfaction, on oriente les questions autour des quatre variables que Robert Haccoun (cité dans Rivard et Lauzier) a démontré et qui permettaient de prédire si les nouvelles compétences allaient être appliquées en milieu de travail. Il s’agit, outre l’évaluation des compétences mentionnée plus haut, de mesurer :
• la motivation (ex. : je suis motivé à appliquer la compétence couverte par la formation);
• le soutien perçu (ex. : l’organisation ou mon supérieur immédiat m’appuiera dans la mise en application de la compétence couverte par la formation);
• le sentiment d'efficacité personnelle (ex. : je me sens capable de mettre en application la compétence couverte par la formation).
L’avantage de ces variables est qu’elles fournissent des indices pour, au besoin, ajuster rapidement la stratégie de formation pour en accroître l’impact.
Pratique 2 – Impliquer les gestionnaires
L’impact positif de gestionnaires engagés dans la formation a été démontré dans de nombreuses études. On a donc avantage à les impliquer dans l’évaluation. Trois variables sont intéressantes pour faire un pendant aux prédicteurs mentionnés plus haut, mais également pour avoir une perception des impacts (niveau 4 de Kirkpatrick), à savoir :
• l’importance perçue de la formation (ex. : cette formation est importante pour assurer la performance de mon équipe);
• les impacts anticipés (ex. : cette formation devrait avoir un impact positif sur la performance de mon équipe);
• le soutien organisationnel (ex. : je vais appuyer les membres de mon équipe ayant participé à la formation à mettre en application leurs apprentissages);
• l’impact perçu après la formation (ex. : cette formation a eu un impact positif sur la performance de mon équipe ou quels impacts j’ai constaté au sein de mon équipe suite à la formation).
De façon à appuyer encore davantage l’application des nouveaux apprentissages, il peut être pertinent de s’arrimer directement aux processus existants de gestion de la performance. Par exemple, il peut être pertinent d’intégrer une liste de vérification de certains comportements clés au processus de contrôle qualité ou aux rencontres de suivi de la performance individuelle.
Pratique 3 – Utiliser les indicateurs en place
La plupart du temps, il existe plusieurs indicateurs de performance au sein des organisations et des équipes. Or, comme il va de soi qu’une formation devrait avoir un impact positif sur un ou plusieurs de ces indicateurs, trois questions devraient être explorées lors de l’analyse initiale des besoins.
• Quels sont les comportements que l’on souhaite voir appliquer par les participants suite à la formation?
• Quel impact aura l’application de ces comportements sur la performance?
• Quels indicateurs seront touchés? Quels est le niveau de ces indicateurs actuellement?
En suivant la progression de ces indicateurs avant et après la formation, il est possible d’estimer l’impact du projet de formation. En ajoutant une valeur monétaire aux indicateurs, il peut même être possible de mesurer un retour sur investissement. Cette ultime stratégie est une belle occasion de renforcer les liens avec les gestionnaires de l’organisation et de justifier la pertinence des investissements en formation.
En conclusion, on peut dire que la mesure des résultats de la formation constitue une activité à forte valeur ajoutée pour un service de formation et qu’il existe des moyens accessibles pour le faire efficacement.
Référence
RIVARD, Patrick, et Martin LAUZIER. La gestion de la formation et du développement des ressources humaines, Québec, Presses de l’Université du Québec, 2013, 348 p.
KIRKPATRICK, Donald L., and James D. KIRKPATRICK. Evaluating Training Programs: The Four Levels, Berrett-Koehler Publishers (3rd Edition), 2006, 379 p.