Auditer son portefeuille projet

Questionnaire d'audit du portefeuille projet
Besoin d'un audit rapide de votre DSI ?
Audit du portefeuille projet
1. Inventaire et classification des projets
Disposez-vous d’une liste exhaustive de tous les projets en cours et à venir (incluant les projets IT et transverses) ?
Niveau 1: Aucune vue centralisée, projets gérés localement et documentés de façon informelle
Niveau 2: Inventaire partiel, basé sur des relevés ponctuels ou des réunions ad hoc
Niveau 3: Inventaire complet, maintenu dans un outil ou référentiel unique et régulièrement mis à jour
Avez-vous défini des catégories ou typologies de projets (projets stratégiques, réglementaires, d’innovation, de maintenance, etc.) ?
Niveau 1: Pas de classification formelle, les projets sont listés sans différenciation
Niveau 2: Quelques grandes catégories, mais critères et règles de tri peu standardisés
Niveau 3: Classification claire, partagée, validée par la direction et les équipes métier
Classez-vous les projets selon leur criticité (impacts financiers, risques, dépendances avec d’autres projets) ?
Niveau 1: Pas de distinction, tous les projets sont traités indifféremment
Niveau 2: Classification sommaire (haut, moyen, bas) appliquée à certains projets
Niveau 3: Criticité formalisée (score ou matrice de risques) et mise à jour à chaque revue
Identifiez-vous les acteurs clés et parties prenantes (sponsor, chef de projet, équipe métier) pour chaque projet ?
Niveau 1: Organigrammes de projet non formalisés, rôles et responsabilités flous
Niveau 2: Principaux responsables désignés, mais documentation incomplète
Niveau 3: Rôles et responsabilités clairement définis et tracés dans un référentiel
Disposez-vous d’une cartographie des interdépendances entre les projets (ressources partagées, jalons liés, livrables communs) ?
Niveau 1: Aucune cartographie, les dépendances sont découvertes tardivement
Niveau 2: Connaissance informelle de certaines interdépendances, sans mise à jour systématique
Niveau 3: Cartographie partagée et formalisée, régulièrement révisée lors des instances de gouvernance
Avez-vous un niveau de priorité associé à chaque projet (ex. priorisation par valeur ajoutée, urgence, ROI) ?
Niveau 1: Pas de priorisation officielle, chaque projet avance selon la disponibilité des ressources
Niveau 2: Priorités déterminées de façon ponctuelle ou en réaction à des contraintes
Niveau 3: Système de priorisation (critères financiers, stratégiques, risques) validé et appliqué à l’ensemble du portefeuille
Les projets sont-ils classifiés selon leur stade d’avancement (idée, étude, réalisation, clôture) pour une meilleure visibilité ?
Niveau 1: Pas de suivi structuré des phases, connaissance du statut très variable d’un projet à l’autre
Niveau 2: Découpage sommaire, mis à jour de manière irrégulière
Niveau 3: Cycle de vie projet clairement établi, suivi et indiqué dans un outil partagé
Disposez-vous d’indicateurs (KPIs) pour mesurer la performance et la progression de chaque projet (budget consommé, % d’avancement) ?
Niveau 1: Aucune mesure, ou relevés ponctuels et non standardisés
Niveau 2: Quelques KPIs techniques ou budgétaires, sans consolidation globale
Niveau 3: Tableau de bord complet, indicateurs régulièrement suivis et communiqués
La classification des projets est-elle partagée et revue en comité de gouvernance (ou toute instance similaire) à intervalles réguliers ?
Niveau 1: Pas de revue formelle, la classification reste informelle ou statique
Niveau 2: Revue sporadique lors de crises ou lorsque le budget l’exige
Niveau 3: Processus de revue planifié (mensuel, trimestriel), adaptation en continu de la classification et des priorités
Les équipes et parties prenantes ont-elles facilement accès à l’inventaire et à la classification des projets ?
Niveau 1: Informations éparses, conservées par quelques chefs de projet ou dans des fichiers locaux
Niveau 2: Accès possible sur demande, mais outil ou référentiel peu ergonomique
Niveau 3: Inventaire centralisé, consultable via un portail ou une solution dédiée, assurant transparence et alignement entre métiers et DSI
2. Cartographie fonctionnelle et technique
Disposez-vous d’une représentation claire des domaines fonctionnels que chaque projet vise à couvrir ou à transformer (processus métier, flux, interactions) ?
Niveau 1: Aucune cartographie formelle, les aspects fonctionnels sont décrits de manière informelle
Niveau 2: Cartographie sommaire pour certains projets, sans mise à jour systématique
Niveau 3: Cartographie fonctionnelle exhaustive, consolidée et validée par les métiers pour l’ensemble des projets
Pour chaque projet, avez-vous décrit précisément l’architecture technique (environnements, serveurs, bases de données, intégrations) associée ?
Niveau 1: Informations techniques dispersées ou détenues par quelques experts
Niveau 2: Architecture technique brièvement documentée, mais pas uniformisée à travers tous les projets
Niveau 3: Documentation technique claire et uniforme, intégrée à un référentiel commun ou un outil de suivi de projets
Avez-vous identifié et documenté les flux de données entre les différents projets et leurs systèmes connexes (partage de référentiels, interfaces) ?
Niveau 1: Découverte des dépendances au fil de l’eau, pas de cartographie formelle
Niveau 2: Connaissance ponctuelle de certains échanges, mais sans vision globale
Niveau 3: Inventaire détaillé des flux pour chaque projet, régulièrement mis à jour et validé en comité de gouvernance
La cartographie des projets inclut-elle la définition des processus métiers impactés (qui dépend de quelles fonctionnalités, quelles équipes) ?
Niveau 1: Aucun lien explicite entre le projet et les processus métiers concernés
Niveau 2: Processus identifiés pour certains projets, documentation partielle
Niveau 3: Association systématique des projets aux processus métiers impactés, avec description des interactions et responsabilités
Utilisez-vous un outil ou un support visuel (ex. diagrammes, référentiels) pour représenter les liens fonctionnels et techniques des projets ?
Niveau 1: Pas d’outil commun, chaque projet décrit son périmètre à sa façon
Niveau 2: Un outil ou support existe, mais pas toujours alimenté ni adopté par tous
Niveau 3: Outil partagé et reconnu, mis à jour de façon collaborative et régulièrement consulté par toutes les parties prenantes
La cartographie prend-elle en compte les ressources externes (cloud, solutions SaaS, partenaires) mobilisées dans chaque projet ?
Niveau 1: Les ressources externes ne sont pas formellement décrites ou tracées
Niveau 2: Liste des ressources externes identifiée, mais documentation incomplète sur leurs implications techniques
Niveau 3: Cartographie complète intégrant chaque ressource externe, ses spécificités et ses contraintes
Avez-vous identifié les interdépendances fonctionnelles entre projets (partage de modules, impact sur les mêmes processus) ?
Niveau 1: Aucune vue globale, les interdépendances sont découvertes tardivement
Niveau 2: Connaissance ponctuelle de certaines interdépendances, mais pas de suivi formel
Niveau 3: Cartographie à jour des interdépendances fonctionnelles, revue régulièrement pour éviter les conflits ou redondances
La cartographie technique met-elle en évidence les composants réutilisables ou mutualisables (services, APIs, frameworks) entre projets ?
Niveau 1: Pas de démarche de mutualisation, chaque projet gère son propre périmètre technique
Niveau 2: Identification informelle des composants réutilisables, sans plan d’action précis
Niveau 3: Inventaire structuré des composants mutualisables, favorisant la standardisation et l’optimisation des ressources
La documentation fonctionnelle et technique des projets est-elle mise à jour au fil des phases (conception, développement, déploiement) ?
Niveau 1: Documentation statique ou inexistante, créée uniquement en début ou en fin de projet
Niveau 2: Mises à jour ponctuelles, sans contrôle de version ni process défini
Niveau 3: Processus formel de mise à jour continu, avec historique et validation à chaque jalon du projet
Les équipes métiers et techniques consultent-elles et utilisent-elles la cartographie pour anticiper les impacts et prendre des décisions ?
Niveau 1: La cartographie n’est pas partagée ou reste méconnue, décisions prises au cas par cas
Niveau 2: Consultation sporadique, utile pour quelques projets mais pas généralisée
Niveau 3: Référence commune systématiquement utilisée en phase de conception, d’arbitrage et de planification pour tous les projets
3. Évaluation de la valeur métier
Les objectifs métiers de chaque projet sont-ils clairement définis et alignés sur la stratégie de l’entreprise (augmentation des ventes, amélioration de la satisfaction client, etc.) ?
Niveau 1: Pas d’objectifs métier formalisés, projets lancés sans alignement clair
Niveau 2: Objectifs identifiés, mais sans lien explicite avec la stratégie globale
Niveau 3: Objectifs précis, validés par la direction, assurant l’alignement avec la stratégie d’entreprise
Mesurez-vous l’impact des projets sur les indicateurs métier (gains de productivité, réduction des coûts, amélioration de la qualité) ?
Niveau 1: Aucun indicateur défini, la valeur est supposée ou non vérifiée
Niveau 2: Quelques indicateurs ponctuels mais pas de suivi systématique
Niveau 3: Indicateurs clés établis pour chaque projet, suivis régulièrement pour mesurer la valeur apportée
Recueillez-vous régulièrement le retour des parties prenantes (clients, équipes métier, utilisateurs finaux) sur la valeur perçue des projets ?
Niveau 1: Aucun dispositif de feedback, retours reçus au hasard
Niveau 2: Retours occasionnels (enquêtes, réunions) mais non formalisés
Niveau 3: Processus établi (questionnaires, comités) pour évaluer la satisfaction et réorienter le projet si nécessaire
Evaluez-vous la rentabilité ou le ROI potentiel de chaque projet avant de le lancer (comparaison des coûts et des bénéfices attendus) ?
Niveau 1: Pas d’évaluation financière, lancement sur des considérations d’urgence ou d’opportunité vague
Niveau 2: Calcul sommaire du ROI ou hypothèses financières approximatives
Niveau 3: Analyse approfondie (ROI, TCO, gains projetés) validée par la direction et mise à jour au fil du projet
Analysez-vous les bénéfices intangibles (image de marque, satisfaction interne, attractivité RH) que les projets peuvent apporter ?
Niveau 1: Les bénéfices non financiers ne sont pas pris en compte
Niveau 2: Reconnaissance partielle des impacts intangibles, sans méthodologie claire
Niveau 3: Prise en compte systématique de ces bénéfices dans la priorisation et l’évaluation globale du projet
Le suivi de la valeur métier est-il fait tout au long du cycle de vie du projet (conception, déploiement, exploitation) ?
Niveau 1: Aucun suivi, la valeur n’est estimée qu’en amont ou pas du tout
Niveau 2: Suivi ponctuel, souvent en fin de projet
Niveau 3: Mesure régulière, permettant des ajustements ou pivots pour maximiser la valeur générée
Les équipes métiers participent-elles activement à la définition et au suivi de la valeur attendue (co-construction des KPIs, revues régulières) ?
Niveau 1: Les métiers sont peu ou pas impliqués, l’IT décide majoritairement
Niveau 2: Implication partielle, les métiers sont consultés de manière réactive
Niveau 3: Co-pilotage avec les métiers, validation des KPIs en amont et participation à chaque jalon
Pour les projets client-facing, suivez-vous des métriques spécifiques (taux de conversion, fidélisation, satisfaction client) afin de mesurer la valeur créée ?
Niveau 1: Aucun suivi formel, données client peu exploitées
Niveau 2: Quelques métriques collectées, mais usage ponctuel sans analyse approfondie
Niveau 3: Indicateurs clés définis, collectés en continu, analysés pour orienter les actions et mesurer l’impact
Disposez-vous d’un processus de capitalisation permettant de tirer des enseignements (lessons learned) sur la valeur métier réalisée pour améliorer les prochains projets ?
Niveau 1: Pas de retour d’expérience formel, chaque projet fonctionne en silo
Niveau 2: REX occasionnel, mais pas de mise en commun structurée
Niveau 3: Processus établi (rétrospectives, documentation partagée), lessons learned intégrées dans les méthodes et standards futurs
Les résultats de l’évaluation de la valeur métier sont-ils communiqués aux parties prenantes (direction, métier, finance) pour assurer transparence et cohésion ?
Niveau 1: Peu ou pas de communication, informations non diffusées
Niveau 2: Communication sporadique en fin de projet ou lors de rapports spécifiques
Niveau 3: Reporting régulier et structuré, partagé via des tableaux de bord et instances de pilotage pour un alignement constant
4. Analyse des coûts et du TCO
Disposez-vous d’une évaluation claire du coût total de chaque projet (incluant coûts de démarrage, coûts récurrents, ressources, outils) ?
Niveau 1: Aucun chiffrage global, coûts estimés ou très partiellement évalués
Niveau 2: Estimations ponctuelles (p. ex. sur l’achat de licences ou le recrutement), sans prendre en compte la globalité des dépenses
Niveau 3: TCO documenté et actualisé pour chaque projet, intégrant coûts directs et indirects, CAPEX et OPEX
Avez-vous mis en place un suivi budgétaire permettant de mesurer l’écart entre le budget prévisionnel et le budget réel consommé sur chaque projet ?
Niveau 1: Pas de suivi budgétaire formel, ajustements faits au fil de l’eau
Niveau 2: Suivi partiel (logiciels, ressources principales) sans vue consolidée
Niveau 3: Suivi régulier et détaillé, reporting d’écarts et actions correctives pilotées par la gouvernance
Le coût de la maintenance (évolutive, corrective) est-il intégré dans le calcul du TCO du projet ?
Niveau 1: Seuls les coûts initiaux (développement, acquisition) sont pris en compte
Niveau 2: Maintenance évaluée, mais pas toujours incluse dans le TCO de manière systématique
Niveau 3: Maintenance incluse dans le TCO dès la phase de planification, permettant une vision complète des dépenses sur la durée de vie du projet
Prenez-vous en compte les coûts indirects (formation des équipes, changement de processus, impact sur d’autres services) ?
Niveau 1: Coûts indirects ignorés ou gérés sans traçabilité
Niveau 2: Estimation sommaire ou ponctuelle de certains coûts indirects
Niveau 3: Identification et intégration systématiques des coûts indirects dans le calcul du TCO
Évaluez-vous la rentabilité ou le ROI de chaque projet en comparant ses coûts totaux aux bénéfices attendus (financiers, opérationnels) ?
Niveau 1: Pas d’analyse de rentabilité, les projets sont menés sur des critères principalement techniques ou d’urgence
Niveau 2: Calcul sommaire du ROI pour certains projets majeurs
Niveau 3: ROI évalué et suivi pour chaque projet, influençant la prise de décision et le suivi global du portefeuille
Disposez-vous d’indicateurs de pilotage financier (burn rate, budget prévisionnel vs réel, forecast) pour chaque projet ?
Niveau 1: Aucune métrique ou pilotage financier, absence de reporting régulier
Niveau 2: Quelques indicateurs de suivi, sans automatisation ni consolidation globale
Niveau 3: Ensemble d’indicateurs fiabilisés (rapports, tableaux de bord), analysés lors de comités de pilotage réguliers
Avez-vous un processus de revue des contrats (licences logicielles, services externes) pour optimiser les dépenses du projet ?
Niveau 1: Contrats historiques rarement négociés ou ajustés
Niveau 2: Renégociation au cas par cas, lors de renouvellements ou de hausses significatives
Niveau 3: Processus régulier pour optimiser les conditions contractuelles, aligné sur l’évolution du projet et de la demande
Les ressources (humaines, matérielles, logicielles) sont-elles dimensionnées et ajustées en fonction de l’avancement du projet (éviter surcoût ou sous-capacité) ?
Niveau 1: Dimensionnement initial figé, aucun ajustement dynamique
Niveau 2: Ajustements ponctuels en cas de dépassement budgétaire ou de retard
Niveau 3: Ajustement proactif et itératif selon l’avancement, le budget consommé et les objectifs à réaliser
Le budget des projets tient-il compte des risques potentiels (aléas techniques, évolutions réglementaires, retards) via une provision ou une réserve de contingence ?
Niveau 1: Aucun provisionnement, gestion en urgence lorsqu’un risque se concrétise
Niveau 2: Provision modeste, basée sur des approximations historiques
Niveau 3: Réserve budgétaire calculée selon une analyse de risques formalisée, révisée au fur et à mesure
Les résultats des analyses de coûts et du TCO sont-ils partagés avec les parties prenantes (direction, métiers, équipes projet) pour favoriser la transparence et la responsabilisation ?
Niveau 1: Les données de coûts ne sont pas diffusées, ou restent confidentielles
Niveau 2: Communication occasionnelle des éléments financiers en fin de projet ou lors de demandes spécifiques
Niveau 3: Reporting régulier, accessible à toutes les parties prenantes, permettant une prise de décision éclairée et un pilotage collaboratif
5. Gestion du cycle de vie et des versions
Avez-vous défini un cycle de vie clair pour chaque projet (phases de conception, développement, test, déploiement, maintenance) ?
Niveau 1: Aucune formalisation, chaque projet gère son cycle à sa manière
Niveau 2: Un modèle de cycle de vie générique existe, mais son application varie d’un projet à l’autre
Niveau 3: Cycle de vie formalisé, validé par la gouvernance, suivi de manière rigoureuse pour tous les projets
Disposez-vous d’une stratégie de versioning (numérotation, branches, tagging) pour suivre les évolutions et correctifs de chaque projet ?
Niveau 1: Pas de convention de versioning, usage hétérogène ou informel
Niveau 2: Conventions de base (ex. numérotation incrémentale), partiellement documentées
Niveau 3: Stratégie claire et partagée (Git-flow ou autre), cohérente sur l’ensemble des projets
Les changements et mises à jour sont-ils pilotés par un processus de gestion de versions (release management) bien défini ?
Niveau 1: Pas de processus clair, les déploiements sont réalisés de manière ad hoc
Niveau 2: Un processus existe mais il n’est pas toujours respecté ni outillé
Niveau 3: Processus formel et outillé, incluant planification, approbation et communication des nouvelles versions
Avez-vous mis en place des environnements distincts (développement, test, pré-production, production) pour gérer les différentes phases de versions ?
Niveau 1: Un seul environnement ou séparation rudimentaire, risque de perturbations en production
Niveau 2: Plusieurs environnements, mais les politiques de synchronisation et de mise à jour sont peu définies
Niveau 3: Environnements bien séparés, avec procédures de promotion et tests systématiques avant passage en production
Le cycle de vie et les règles de versioning sont-ils documentés et communiqués à l’ensemble des équipes projet et métiers ?
Niveau 1: Documentation inexistante ou réservée à quelques experts techniques
Niveau 2: Documentation partielle, peu diffusée, compréhension inégale chez les équipes
Niveau 3: Documentation claire, accessible, régulièrement mise à jour et comprise par toutes les parties prenantes
Disposez-vous d’un système de gestion des configurations (CMDB, référentiel) assurant la traçabilité des versions déployées ?
Niveau 1: Aucune traçabilité formelle, historique des versions géré de façon artisanale
Niveau 2: Outils utilisés de manière ponctuelle, informations incomplètes ou peu centralisées
Niveau 3: CMDB ou équivalent, mise à jour automatique ou régulière, fournissant une vue précise et en temps réel des versions en place
Les évolutions et correctifs font-ils l’objet de tests et validations systématiques (recette fonctionnelle, tests de non-régression) avant passage en production ?
Niveau 1: Tests informels et non structurés, risques élevés de régressions
Niveau 2: Tests fonctionnels essentiels, mais insuffisants ou mal coordonnés
Niveau 3: Processus de test complet (CI/CD, automatisation, recette métier), validé par toutes les équipes concernées
Avez-vous un plan de retrait (sunset) ou de gestion de fin de vie pour les anciennes versions des projets (décommissionnement) ?
Niveau 1: Aucune gestion de fin de vie, versions obsolètes cohabitent sans suivi
Niveau 2: Retrait ponctuel des anciennes versions, mais pas de planification globale
Niveau 3: Plan de décommissionnement formalisé, intégrant le suivi des versions et leur remplacement ou retrait au bon moment
La transition entre versions est-elle accompagnée d’une communication claire auprès des utilisateurs (changements, impacts, formation) ?
Niveau 1: Communication minimale ou tardive, utilisateurs informés après coup
Niveau 2: Communication ponctuelle, sans process défini, parfois manquante
Niveau 3: Stratégie de communication planifiée, supports de formation et annonces transmises à tous les utilisateurs concernés
Le cycle de vie et la gestion des versions sont-ils revus régulièrement (amélioration continue) pour s’adapter aux retours d’expérience et aux nouvelles pratiques ?
Niveau 1: Pas de revue, les pratiques restent figées quelles que soient les évolutions
Niveau 2: Revue informelle ou occasionnelle, sans plan d’action structuré
Niveau 3: Boucle d’amélioration continue, intégrant retours d’expérience et évolutions méthodologiques dans la gestion des versions
6. Évaluation de la dette technique et des risques
Avez-vous identifié la dette technique associée à chaque projet (code obsolète, architecture héritée, composants non maintenus) ?
Niveau 1: Aucune formalisation, la dette s’accumule sans être recensée
Niveau 2: Une évaluation ponctuelle pour certains projets critiques, mais pas de vision globale
Niveau 3: Inventaire exhaustif et régulièrement mis à jour de la dette technique pour chaque projet
Disposez-vous de critères clairs pour quantifier la dette technique (impact sur la maintenabilité, performance, sécurité, évolutivité) ?
Niveau 1: Évaluation au ressenti ou selon l’expérience d’experts, sans cadre formel
Niveau 2: Quelques critères identifiés, mais sans méthode de scoring uniforme
Niveau 3: Méthodologie de scoring adoptée, permettant de prioriser et de mesurer l’évolution de la dette technique
Avez-vous établi un plan de réduction ou de refactoring pour gérer la dette technique au fil de la vie du projet ?
Niveau 1: Aucun plan, la dette s’accumule jusqu’à causer des problèmes majeurs
Niveau 2: Actions correctives envisagées occasionnellement, souvent repoussées par manque de budget ou de temps
Niveau 3: Plan d’action planifié et intégré dans la roadmap projet, avec un suivi régulier et un budget alloué
Les risques liés aux projets (délais, qualité, sécurité, dépendances) sont-ils identifiés et analysés de manière formalisée ?
Niveau 1: Découverte des risques au cas par cas, pas de document de suivi
Niveau 2: Identification de risques majeurs à l’initiative du chef de projet, sans processus global
Niveau 3: Cartographie des risques formelle, mise à jour périodiquement et partagée avec les parties prenantes
Disposez-vous d’indicateurs ou de métriques pour surveiller l’évolution de la dette technique et son impact potentiel sur le projet (support, performance) ?
Niveau 1: Aucune mesure, observation empirique et réactive
Niveau 2: Quelques indicateurs isolés, mais pas de suivi systématique
Niveau 3: Tableau de bord dédié, indicateurs mis à jour à chaque itération ou jalon
Les risques sont-ils évalués en termes de probabilité et d’impact (méthodes de scoring, matrice de risques) pour aider à la priorisation ?
Niveau 1: Aucune évaluation structurée, ressenti global sans méthode
Niveau 2: Évaluation partielle (faible/moyen/fort), parfois documentée
Niveau 3: Méthodologie formelle (probabilité × impact), partagée et mise à jour régulièrement
Le pilotage du risque est-il intégré aux instances de gouvernance (comités de pilotage, revues de projets) pour décider des mesures à prendre ?
Niveau 1: Gestion des risques décentralisée et réactive, pas de discussion formelle
Niveau 2: Présentation des risques majeurs au comité, sans actions correctives systématiques
Niveau 3: Suivi rigoureux en comité, décisions et actions correctives prises dès qu’un risque dépasse un seuil défini
Les responsabilités de gestion des risques sont-elles clairement attribuées (propriétaire du risque, plan d’action, échéances) ?
Niveau 1: Personne clairement désignée, responsabilité souvent floue
Niveau 2: Risques majeurs assignés à un responsable, mais pas de suivi global
Niveau 3: Chaque risque a un propriétaire identifié, avec un plan d’action et un échéancier clair
Avez-vous mis en place un processus de remontée d’alerte permettant d’anticiper la concrétisation de risques critiques (délais, sécurité, budget) ?
Niveau 1: Alertes ad hoc, déclenchées après l’apparition du problème
Niveau 2: Système de signalement informel ou manuel, réactivité variable
Niveau 3: Processus formel d’alerte précoce, outillé (dashboards, notifications), permettant une intervention rapide
Les choix technologiques ou fonctionnels sont-ils évalués au regard de l’augmentation potentielle de la dette technique et des risques associés ?
Niveau 1: Décisions dictées par l’urgence ou le coût immédiat, sans vision long terme
Niveau 2: Prise en compte partielle, pas de méthode structurée pour comparer les options
Niveau 3: Analyse d’impacts systématique, incluant dette technique et risques, pour orienter les décisions stratégiques
7. Rationalisation et plan d’optimisation
Disposez-vous d’une liste formelle recensant les projets présentant des redondances ou des chevauchements fonctionnels, justifiant une mutualisation ou une fusion ?
Niveau 1: Pas de repérage spécifique, les doublons sont découverts tardivement
Niveau 2: Identification ponctuelle de redondances, sans plan structuré pour y remédier
Niveau 3: Inventaire systématique des projets potentiellement redondants, analysés pour envisager une fusion ou une rationalisation
Avez-vous établi des critères clairs (coûts, valeur métier, risques, alignement stratégique) pour prioriser la rationalisation de certains projets ?
Niveau 1: Pas de critères définis, décisions au cas par cas selon l’urgence ou la disponibilité
Niveau 2: Quelques critères de base (budget, ROI), mais pas de méthodologie globale
Niveau 3: Critères formalisés et pondérés, validés par la gouvernance, appliqués à l’ensemble du portefeuille
Disposez-vous d’un plan d’optimisation global pour réduire la complexité (mutualisation de ressources, standardisation, réutilisation) ?
Niveau 1: Aucune démarche coordonnée, chaque équipe agit isolément
Niveau 2: Initiatives sporadiques de mutualisation, sans vision d’ensemble
Niveau 3: Stratégie globale d’optimisation, pilotée par un comité, intégrant tous les projets concernés
Avez-vous mis en place des actions de consolidation (migration, refonte, intégration) pour éliminer les projets ou outils obsolètes ou peu rentables ?
Niveau 1: Pas de démarche de retrait, coexistence prolongée d’anciens projets
Niveau 2: Retrait de certains projets identifiés comme non critiques, sans plan systématique
Niveau 3: Programme structuré pour évaluer chaque projet en fin de vie et planifier son remplacement ou son décommissionnement
Tenez-vous compte des économies d’échelle possibles (mutualisation de licences, d’infrastructures) dans la planification des projets ?
Niveau 1: Chaque projet gère ses besoins sans se coordonner avec les autres
Niveau 2: Mutualisation opportuniste sur certains segments (licences, serveurs), sans généralisation
Niveau 3: Approche globale pour exploiter systématiquement les synergies entre projets (licences, hébergement, support)
Les évolutions ou refontes planifiées s’appuient-elles sur des solutions standardisées ou préconisées, réduisant la complexité technique et fonctionnelle ?
Niveau 1: Solutions ad hoc, sans recherche de standardisation
Niveau 2: Utilisation de standards pour quelques projets, mais pas de politique clairement définie
Niveau 3: Politique de standardisation formelle, favorisant le réemploi de composants et limitant la diversité technologique
Avez-vous un processus de pilotage régulier pour suivre les progrès de la rationalisation (indicateurs, jalons, retours d’expérience) ?
Niveau 1: Aucune instance dédiée, initiatives dispersées et non mesurées
Niveau 2: Quelques revues ponctuelles au sein de certains comités, métriques peu formalisées
Niveau 3: Tableau de bord et reporting régulier, instance de pilotage dédiée pour garantir l’avancement et mesurer les gains
Les utilisateurs finaux et les métiers sont-ils impliqués dans la démarche de rationalisation (identification des doublons, définition des besoins réels) ?
Niveau 1: Décisions prises uniquement par l’IT, risques de rejet ou de perte de valeur
Niveau 2: Consultation partielle des métiers, pas de processus collaboratif approfondi
Niveau 3: Processus participatif associant étroitement les métiers et les utilisateurs pour prioriser les rationalisations pertinentes
Procédez-vous à une analyse coûts/bénéfices pour chaque action de rationalisation (fusion, refonte, décommissionnement) avant de la lancer ?
Niveau 1: Aucune analyse préalable, décisions impulsives ou sous la pression budgétaire
Niveau 2: Évaluation sommaire, parfois sans suivre une méthode claire
Niveau 3: Analyse complète (TCO, ROI, risques) systématiquement réalisée et présentée à la gouvernance avant décision
Les résultats de la rationalisation (économies réalisées, réduction de la complexité, amélioration de la qualité) sont-ils mesurés et communiqués aux parties prenantes ?
Niveau 1: Pas de mesure ni de communication, l’impact reste inconnu
Niveau 2: Mesure ponctuelle des gains, communication principalement en fin de projet
Niveau 3: Indicateurs de performance suivis de manière continue et partagés avec toutes les équipes, favorisant la culture d’amélioration continue
8. Gouvernance et priorisation
Disposez-vous d’un processus formel de gouvernance pour décider du lancement, de la suspension ou de l’arrêt des projets (comité, critères, rôles définis) ?
Niveau 1: Pas de processus structuré, décisions prises au cas par cas sans alignement global
Niveau 2: Existence d’un comité ou d’une instance, mais critères et rôles insuffisamment documentés
Niveau 3: Gouvernance claire et partagée, avec un comité dédié, des critères de sélection et un calendrier de décisions régulières
Avez-vous défini des critères de priorisation communs (valeur business, ROI, risques, alignement stratégique) pour classer vos projets ?
Niveau 1: Priorisation à l’intuition ou basée sur l’influence de certaines parties prenantes
Niveau 2: Quelques critères de base sont utilisés, mais pas de grille d’évaluation complète
Niveau 3: Système de scoring formalisé et validé par la direction, utilisé de manière cohérente pour l’ensemble du portefeuille
Les métiers et les sponsors participent-ils activement à la priorisation et à la décision d’investissement dans les projets ?
Niveau 1: Implication limitée, l’IT ou la direction décident principalement
Niveau 2: Consultation des métiers sur demande, sans véritable co-construction
Niveau 3: Processus collaboratif régulier, sponsors et métiers s’expriment sur la valeur attendue, influençant la priorisation
Disposez-vous d’une feuille de route consolidée (roadmap) qui intègre tous les projets prioritaires et leurs échéances clés ?
Niveau 1: Pas de roadmap globale, suivi de projets ponctuel et éclaté
Niveau 2: Roadmap informelle ou partiellement documentée, pas toujours à jour
Niveau 3: Roadmap unique, mise à jour régulièrement, partagée avec toutes les parties prenantes
Avez-vous mis en place des instances ou des rituels de suivi (comités, revues de portefeuille) pour évaluer l’avancement et ajuster les priorités au fil de l’eau ?
Niveau 1: Pas d’instance dédiée, suivi sporadique ou informel
Niveau 2: Un comité existe, mais les revues sont irrégulières ou peu exploitées
Niveau 3: Revues planifiées (mensuelles/trimestrielles), pilotage dynamique et réallocation des ressources si nécessaire
Les arbitrages budgétaires sont-ils alignés sur la priorisation (les projets les plus stratégiques disposent-ils des moyens adéquats) ?
Niveau 1: Budgets alloués selon l’historique ou l’urgence, peu de lien avec les priorités
Niveau 2: Alignement partiel, parfois remis en cause par des contraintes internes
Niveau 3: Décisions budgétaires prises en cohérence avec la matrice de priorisation et la valeur métier attendue
Disposez-vous d’un mécanisme de validation des changements majeurs (coûts, scope, calendrier) en cours de projet ?
Niveau 1: Changements gérés de manière improvisée, sans structure de validation
Niveau 2: Validation par un responsable unique, pas de comité de changement formel
Niveau 3: Processus de change control clair (demande, analyse d’impact, validation en comité), documenté et respecté
Avez-vous défini des rôles et responsabilités clairs pour la gouvernance (sponsors, chefs de projet, PMO, direction) ?
Niveau 1: Rôles non formalisés, chevauchements et ambiguïtés fréquents
Niveau 2: Rôles identifiés, mais pas toujours compris ou respectés par les équipes
Niveau 3: Rôles clairement décrits dans une charte de gouvernance, chaque acteur connaît ses attributions et rend compte régulièrement
La priorisation est-elle révisée périodiquement en fonction de l’évolution du contexte (marché, concurrence, contraintes légales, urgences internes) ?
Niveau 1: Une fois décidées, les priorités restent figées, même si le contexte change
Niveau 2: Ajustements ponctuels, souvent sous pression d’événements majeurs
Niveau 3: Processus d’évaluation régulier (ex. trimestriel), permettant d’adapter la feuille de route aux nouvelles contraintes ou opportunités
Les décisions de gouvernance (démarrage, arbitrage, arrêt) sont-elles transparentes et communiquées à toutes les parties prenantes (direction, métiers, IT) ?
Niveau 1: Décisions prises dans un cercle restreint, peu ou pas communiquées
Niveau 2: Communication partielle, souvent tardive ou lacunaire
Niveau 3: Transparence assurée, communication formelle (comptes rendus, tableaux de bord), chaque acteur sait ce qui a été décidé et pourquoi