Auditer son portefeuille projet

Auditer son portefeuille projet

Questionnaire d'audit du portefeuille projet

Besoin d'un audit rapide de votre DSI ? 

Audit du portefeuille projet

1. Inventaire et classification des projets

Disposez-vous d’une liste exhaustive de tous les projets en cours et à venir (incluant les projets IT et transverses) ?
Niveau 1: Aucune vue centralisée, projets gérés localement et documentés de façon informelle
Niveau 2: Inventaire partiel, basé sur des relevés ponctuels ou des réunions ad hoc
Niveau 3: Inventaire complet, maintenu dans un outil ou référentiel unique et régulièrement mis à jour

Avez-vous défini des catégories ou typologies de projets (projets stratégiques, réglementaires, d’innovation, de maintenance, etc.) ?
Niveau 1: Pas de classification formelle, les projets sont listés sans différenciation
Niveau 2: Quelques grandes catégories, mais critères et règles de tri peu standardisés
Niveau 3: Classification claire, partagée, validée par la direction et les équipes métier

Classez-vous les projets selon leur criticité (impacts financiers, risques, dépendances avec d’autres projets) ?
Niveau 1: Pas de distinction, tous les projets sont traités indifféremment
Niveau 2: Classification sommaire (haut, moyen, bas) appliquée à certains projets
Niveau 3: Criticité formalisée (score ou matrice de risques) et mise à jour à chaque revue

Identifiez-vous les acteurs clés et parties prenantes (sponsor, chef de projet, équipe métier) pour chaque projet ?
Niveau 1: Organigrammes de projet non formalisés, rôles et responsabilités flous
Niveau 2: Principaux responsables désignés, mais documentation incomplète
Niveau 3: Rôles et responsabilités clairement définis et tracés dans un référentiel

Disposez-vous d’une cartographie des interdépendances entre les projets (ressources partagées, jalons liés, livrables communs) ?
Niveau 1: Aucune cartographie, les dépendances sont découvertes tardivement
Niveau 2: Connaissance informelle de certaines interdépendances, sans mise à jour systématique
Niveau 3: Cartographie partagée et formalisée, régulièrement révisée lors des instances de gouvernance

Avez-vous un niveau de priorité associé à chaque projet (ex. priorisation par valeur ajoutée, urgence, ROI) ?
Niveau 1: Pas de priorisation officielle, chaque projet avance selon la disponibilité des ressources
Niveau 2: Priorités déterminées de façon ponctuelle ou en réaction à des contraintes
Niveau 3: Système de priorisation (critères financiers, stratégiques, risques) validé et appliqué à l’ensemble du portefeuille

Les projets sont-ils classifiés selon leur stade d’avancement (idée, étude, réalisation, clôture) pour une meilleure visibilité ?
Niveau 1: Pas de suivi structuré des phases, connaissance du statut très variable d’un projet à l’autre
Niveau 2: Découpage sommaire, mis à jour de manière irrégulière
Niveau 3: Cycle de vie projet clairement établi, suivi et indiqué dans un outil partagé

Disposez-vous d’indicateurs (KPIs) pour mesurer la performance et la progression de chaque projet (budget consommé, % d’avancement) ?
Niveau 1: Aucune mesure, ou relevés ponctuels et non standardisés
Niveau 2: Quelques KPIs techniques ou budgétaires, sans consolidation globale
Niveau 3: Tableau de bord complet, indicateurs régulièrement suivis et communiqués

La classification des projets est-elle partagée et revue en comité de gouvernance (ou toute instance similaire) à intervalles réguliers ?
Niveau 1: Pas de revue formelle, la classification reste informelle ou statique
Niveau 2: Revue sporadique lors de crises ou lorsque le budget l’exige
Niveau 3: Processus de revue planifié (mensuel, trimestriel), adaptation en continu de la classification et des priorités

Les équipes et parties prenantes ont-elles facilement accès à l’inventaire et à la classification des projets ?
Niveau 1: Informations éparses, conservées par quelques chefs de projet ou dans des fichiers locaux
Niveau 2: Accès possible sur demande, mais outil ou référentiel peu ergonomique
Niveau 3: Inventaire centralisé, consultable via un portail ou une solution dédiée, assurant transparence et alignement entre métiers et DSI

2. Cartographie fonctionnelle et technique

Disposez-vous d’une représentation claire des domaines fonctionnels que chaque projet vise à couvrir ou à transformer (processus métier, flux, interactions) ?
Niveau 1: Aucune cartographie formelle, les aspects fonctionnels sont décrits de manière informelle
Niveau 2: Cartographie sommaire pour certains projets, sans mise à jour systématique
Niveau 3: Cartographie fonctionnelle exhaustive, consolidée et validée par les métiers pour l’ensemble des projets

Pour chaque projet, avez-vous décrit précisément l’architecture technique (environnements, serveurs, bases de données, intégrations) associée ?
Niveau 1: Informations techniques dispersées ou détenues par quelques experts
Niveau 2: Architecture technique brièvement documentée, mais pas uniformisée à travers tous les projets
Niveau 3: Documentation technique claire et uniforme, intégrée à un référentiel commun ou un outil de suivi de projets

Avez-vous identifié et documenté les flux de données entre les différents projets et leurs systèmes connexes (partage de référentiels, interfaces) ?
Niveau 1: Découverte des dépendances au fil de l’eau, pas de cartographie formelle
Niveau 2: Connaissance ponctuelle de certains échanges, mais sans vision globale
Niveau 3: Inventaire détaillé des flux pour chaque projet, régulièrement mis à jour et validé en comité de gouvernance

La cartographie des projets inclut-elle la définition des processus métiers impactés (qui dépend de quelles fonctionnalités, quelles équipes) ?
Niveau 1: Aucun lien explicite entre le projet et les processus métiers concernés
Niveau 2: Processus identifiés pour certains projets, documentation partielle
Niveau 3: Association systématique des projets aux processus métiers impactés, avec description des interactions et responsabilités

Utilisez-vous un outil ou un support visuel (ex. diagrammes, référentiels) pour représenter les liens fonctionnels et techniques des projets ?
Niveau 1: Pas d’outil commun, chaque projet décrit son périmètre à sa façon
Niveau 2: Un outil ou support existe, mais pas toujours alimenté ni adopté par tous
Niveau 3: Outil partagé et reconnu, mis à jour de façon collaborative et régulièrement consulté par toutes les parties prenantes

La cartographie prend-elle en compte les ressources externes (cloud, solutions SaaS, partenaires) mobilisées dans chaque projet ?
Niveau 1: Les ressources externes ne sont pas formellement décrites ou tracées
Niveau 2: Liste des ressources externes identifiée, mais documentation incomplète sur leurs implications techniques
Niveau 3: Cartographie complète intégrant chaque ressource externe, ses spécificités et ses contraintes

Avez-vous identifié les interdépendances fonctionnelles entre projets (partage de modules, impact sur les mêmes processus) ?
Niveau 1: Aucune vue globale, les interdépendances sont découvertes tardivement
Niveau 2: Connaissance ponctuelle de certaines interdépendances, mais pas de suivi formel
Niveau 3: Cartographie à jour des interdépendances fonctionnelles, revue régulièrement pour éviter les conflits ou redondances

La cartographie technique met-elle en évidence les composants réutilisables ou mutualisables (services, APIs, frameworks) entre projets ?
Niveau 1: Pas de démarche de mutualisation, chaque projet gère son propre périmètre technique
Niveau 2: Identification informelle des composants réutilisables, sans plan d’action précis
Niveau 3: Inventaire structuré des composants mutualisables, favorisant la standardisation et l’optimisation des ressources

La documentation fonctionnelle et technique des projets est-elle mise à jour au fil des phases (conception, développement, déploiement) ?
Niveau 1: Documentation statique ou inexistante, créée uniquement en début ou en fin de projet
Niveau 2: Mises à jour ponctuelles, sans contrôle de version ni process défini
Niveau 3: Processus formel de mise à jour continu, avec historique et validation à chaque jalon du projet

Les équipes métiers et techniques consultent-elles et utilisent-elles la cartographie pour anticiper les impacts et prendre des décisions ?
Niveau 1: La cartographie n’est pas partagée ou reste méconnue, décisions prises au cas par cas
Niveau 2: Consultation sporadique, utile pour quelques projets mais pas généralisée
Niveau 3: Référence commune systématiquement utilisée en phase de conception, d’arbitrage et de planification pour tous les projets

3. Évaluation de la valeur métier

Les objectifs métiers de chaque projet sont-ils clairement définis et alignés sur la stratégie de l’entreprise (augmentation des ventes, amélioration de la satisfaction client, etc.) ?
Niveau 1: Pas d’objectifs métier formalisés, projets lancés sans alignement clair
Niveau 2: Objectifs identifiés, mais sans lien explicite avec la stratégie globale
Niveau 3: Objectifs précis, validés par la direction, assurant l’alignement avec la stratégie d’entreprise

Mesurez-vous l’impact des projets sur les indicateurs métier (gains de productivité, réduction des coûts, amélioration de la qualité) ?
Niveau 1: Aucun indicateur défini, la valeur est supposée ou non vérifiée
Niveau 2: Quelques indicateurs ponctuels mais pas de suivi systématique
Niveau 3: Indicateurs clés établis pour chaque projet, suivis régulièrement pour mesurer la valeur apportée

Recueillez-vous régulièrement le retour des parties prenantes (clients, équipes métier, utilisateurs finaux) sur la valeur perçue des projets ?
Niveau 1: Aucun dispositif de feedback, retours reçus au hasard
Niveau 2: Retours occasionnels (enquêtes, réunions) mais non formalisés
Niveau 3: Processus établi (questionnaires, comités) pour évaluer la satisfaction et réorienter le projet si nécessaire

Evaluez-vous la rentabilité ou le ROI potentiel de chaque projet avant de le lancer (comparaison des coûts et des bénéfices attendus) ?
Niveau 1: Pas d’évaluation financière, lancement sur des considérations d’urgence ou d’opportunité vague
Niveau 2: Calcul sommaire du ROI ou hypothèses financières approximatives
Niveau 3: Analyse approfondie (ROI, TCO, gains projetés) validée par la direction et mise à jour au fil du projet

Analysez-vous les bénéfices intangibles (image de marque, satisfaction interne, attractivité RH) que les projets peuvent apporter ?
Niveau 1: Les bénéfices non financiers ne sont pas pris en compte
Niveau 2: Reconnaissance partielle des impacts intangibles, sans méthodologie claire
Niveau 3: Prise en compte systématique de ces bénéfices dans la priorisation et l’évaluation globale du projet

Le suivi de la valeur métier est-il fait tout au long du cycle de vie du projet (conception, déploiement, exploitation) ?
Niveau 1: Aucun suivi, la valeur n’est estimée qu’en amont ou pas du tout
Niveau 2: Suivi ponctuel, souvent en fin de projet
Niveau 3: Mesure régulière, permettant des ajustements ou pivots pour maximiser la valeur générée

Les équipes métiers participent-elles activement à la définition et au suivi de la valeur attendue (co-construction des KPIs, revues régulières) ?
Niveau 1: Les métiers sont peu ou pas impliqués, l’IT décide majoritairement
Niveau 2: Implication partielle, les métiers sont consultés de manière réactive
Niveau 3: Co-pilotage avec les métiers, validation des KPIs en amont et participation à chaque jalon

Pour les projets client-facing, suivez-vous des métriques spécifiques (taux de conversion, fidélisation, satisfaction client) afin de mesurer la valeur créée ?
Niveau 1: Aucun suivi formel, données client peu exploitées
Niveau 2: Quelques métriques collectées, mais usage ponctuel sans analyse approfondie
Niveau 3: Indicateurs clés définis, collectés en continu, analysés pour orienter les actions et mesurer l’impact

Disposez-vous d’un processus de capitalisation permettant de tirer des enseignements (lessons learned) sur la valeur métier réalisée pour améliorer les prochains projets ?
Niveau 1: Pas de retour d’expérience formel, chaque projet fonctionne en silo
Niveau 2: REX occasionnel, mais pas de mise en commun structurée
Niveau 3: Processus établi (rétrospectives, documentation partagée), lessons learned intégrées dans les méthodes et standards futurs

Les résultats de l’évaluation de la valeur métier sont-ils communiqués aux parties prenantes (direction, métier, finance) pour assurer transparence et cohésion ?
Niveau 1: Peu ou pas de communication, informations non diffusées
Niveau 2: Communication sporadique en fin de projet ou lors de rapports spécifiques
Niveau 3: Reporting régulier et structuré, partagé via des tableaux de bord et instances de pilotage pour un alignement constant

4. Analyse des coûts et du TCO

Disposez-vous d’une évaluation claire du coût total de chaque projet (incluant coûts de démarrage, coûts récurrents, ressources, outils) ?
Niveau 1: Aucun chiffrage global, coûts estimés ou très partiellement évalués
Niveau 2: Estimations ponctuelles (p. ex. sur l’achat de licences ou le recrutement), sans prendre en compte la globalité des dépenses
Niveau 3: TCO documenté et actualisé pour chaque projet, intégrant coûts directs et indirects, CAPEX et OPEX

Avez-vous mis en place un suivi budgétaire permettant de mesurer l’écart entre le budget prévisionnel et le budget réel consommé sur chaque projet ?
Niveau 1: Pas de suivi budgétaire formel, ajustements faits au fil de l’eau
Niveau 2: Suivi partiel (logiciels, ressources principales) sans vue consolidée
Niveau 3: Suivi régulier et détaillé, reporting d’écarts et actions correctives pilotées par la gouvernance

Le coût de la maintenance (évolutive, corrective) est-il intégré dans le calcul du TCO du projet ?
Niveau 1: Seuls les coûts initiaux (développement, acquisition) sont pris en compte
Niveau 2: Maintenance évaluée, mais pas toujours incluse dans le TCO de manière systématique
Niveau 3: Maintenance incluse dans le TCO dès la phase de planification, permettant une vision complète des dépenses sur la durée de vie du projet

Prenez-vous en compte les coûts indirects (formation des équipes, changement de processus, impact sur d’autres services) ?
Niveau 1: Coûts indirects ignorés ou gérés sans traçabilité
Niveau 2: Estimation sommaire ou ponctuelle de certains coûts indirects
Niveau 3: Identification et intégration systématiques des coûts indirects dans le calcul du TCO

Évaluez-vous la rentabilité ou le ROI de chaque projet en comparant ses coûts totaux aux bénéfices attendus (financiers, opérationnels) ?
Niveau 1: Pas d’analyse de rentabilité, les projets sont menés sur des critères principalement techniques ou d’urgence
Niveau 2: Calcul sommaire du ROI pour certains projets majeurs
Niveau 3: ROI évalué et suivi pour chaque projet, influençant la prise de décision et le suivi global du portefeuille

Disposez-vous d’indicateurs de pilotage financier (burn rate, budget prévisionnel vs réel, forecast) pour chaque projet ?
Niveau 1: Aucune métrique ou pilotage financier, absence de reporting régulier
Niveau 2: Quelques indicateurs de suivi, sans automatisation ni consolidation globale
Niveau 3: Ensemble d’indicateurs fiabilisés (rapports, tableaux de bord), analysés lors de comités de pilotage réguliers

Avez-vous un processus de revue des contrats (licences logicielles, services externes) pour optimiser les dépenses du projet ?
Niveau 1: Contrats historiques rarement négociés ou ajustés
Niveau 2: Renégociation au cas par cas, lors de renouvellements ou de hausses significatives
Niveau 3: Processus régulier pour optimiser les conditions contractuelles, aligné sur l’évolution du projet et de la demande

Les ressources (humaines, matérielles, logicielles) sont-elles dimensionnées et ajustées en fonction de l’avancement du projet (éviter surcoût ou sous-capacité) ?
Niveau 1: Dimensionnement initial figé, aucun ajustement dynamique
Niveau 2: Ajustements ponctuels en cas de dépassement budgétaire ou de retard
Niveau 3: Ajustement proactif et itératif selon l’avancement, le budget consommé et les objectifs à réaliser

Le budget des projets tient-il compte des risques potentiels (aléas techniques, évolutions réglementaires, retards) via une provision ou une réserve de contingence ?
Niveau 1: Aucun provisionnement, gestion en urgence lorsqu’un risque se concrétise
Niveau 2: Provision modeste, basée sur des approximations historiques
Niveau 3: Réserve budgétaire calculée selon une analyse de risques formalisée, révisée au fur et à mesure

Les résultats des analyses de coûts et du TCO sont-ils partagés avec les parties prenantes (direction, métiers, équipes projet) pour favoriser la transparence et la responsabilisation ?
Niveau 1: Les données de coûts ne sont pas diffusées, ou restent confidentielles
Niveau 2: Communication occasionnelle des éléments financiers en fin de projet ou lors de demandes spécifiques
Niveau 3: Reporting régulier, accessible à toutes les parties prenantes, permettant une prise de décision éclairée et un pilotage collaboratif

5. Gestion du cycle de vie et des versions

Avez-vous défini un cycle de vie clair pour chaque projet (phases de conception, développement, test, déploiement, maintenance) ?
Niveau 1: Aucune formalisation, chaque projet gère son cycle à sa manière
Niveau 2: Un modèle de cycle de vie générique existe, mais son application varie d’un projet à l’autre
Niveau 3: Cycle de vie formalisé, validé par la gouvernance, suivi de manière rigoureuse pour tous les projets

Disposez-vous d’une stratégie de versioning (numérotation, branches, tagging) pour suivre les évolutions et correctifs de chaque projet ?
Niveau 1: Pas de convention de versioning, usage hétérogène ou informel
Niveau 2: Conventions de base (ex. numérotation incrémentale), partiellement documentées
Niveau 3: Stratégie claire et partagée (Git-flow ou autre), cohérente sur l’ensemble des projets

Les changements et mises à jour sont-ils pilotés par un processus de gestion de versions (release management) bien défini ?
Niveau 1: Pas de processus clair, les déploiements sont réalisés de manière ad hoc
Niveau 2: Un processus existe mais il n’est pas toujours respecté ni outillé
Niveau 3: Processus formel et outillé, incluant planification, approbation et communication des nouvelles versions

Avez-vous mis en place des environnements distincts (développement, test, pré-production, production) pour gérer les différentes phases de versions ?
Niveau 1: Un seul environnement ou séparation rudimentaire, risque de perturbations en production
Niveau 2: Plusieurs environnements, mais les politiques de synchronisation et de mise à jour sont peu définies
Niveau 3: Environnements bien séparés, avec procédures de promotion et tests systématiques avant passage en production

Le cycle de vie et les règles de versioning sont-ils documentés et communiqués à l’ensemble des équipes projet et métiers ?
Niveau 1: Documentation inexistante ou réservée à quelques experts techniques
Niveau 2: Documentation partielle, peu diffusée, compréhension inégale chez les équipes
Niveau 3: Documentation claire, accessible, régulièrement mise à jour et comprise par toutes les parties prenantes

Disposez-vous d’un système de gestion des configurations (CMDB, référentiel) assurant la traçabilité des versions déployées ?
Niveau 1: Aucune traçabilité formelle, historique des versions géré de façon artisanale
Niveau 2: Outils utilisés de manière ponctuelle, informations incomplètes ou peu centralisées
Niveau 3: CMDB ou équivalent, mise à jour automatique ou régulière, fournissant une vue précise et en temps réel des versions en place

Les évolutions et correctifs font-ils l’objet de tests et validations systématiques (recette fonctionnelle, tests de non-régression) avant passage en production ?
Niveau 1: Tests informels et non structurés, risques élevés de régressions
Niveau 2: Tests fonctionnels essentiels, mais insuffisants ou mal coordonnés
Niveau 3: Processus de test complet (CI/CD, automatisation, recette métier), validé par toutes les équipes concernées

Avez-vous un plan de retrait (sunset) ou de gestion de fin de vie pour les anciennes versions des projets (décommissionnement) ?
Niveau 1: Aucune gestion de fin de vie, versions obsolètes cohabitent sans suivi
Niveau 2: Retrait ponctuel des anciennes versions, mais pas de planification globale
Niveau 3: Plan de décommissionnement formalisé, intégrant le suivi des versions et leur remplacement ou retrait au bon moment

La transition entre versions est-elle accompagnée d’une communication claire auprès des utilisateurs (changements, impacts, formation) ?
Niveau 1: Communication minimale ou tardive, utilisateurs informés après coup
Niveau 2: Communication ponctuelle, sans process défini, parfois manquante
Niveau 3: Stratégie de communication planifiée, supports de formation et annonces transmises à tous les utilisateurs concernés

Le cycle de vie et la gestion des versions sont-ils revus régulièrement (amélioration continue) pour s’adapter aux retours d’expérience et aux nouvelles pratiques ?
Niveau 1: Pas de revue, les pratiques restent figées quelles que soient les évolutions
Niveau 2: Revue informelle ou occasionnelle, sans plan d’action structuré
Niveau 3: Boucle d’amélioration continue, intégrant retours d’expérience et évolutions méthodologiques dans la gestion des versions

6. Évaluation de la dette technique et des risques

Avez-vous identifié la dette technique associée à chaque projet (code obsolète, architecture héritée, composants non maintenus) ?
Niveau 1: Aucune formalisation, la dette s’accumule sans être recensée
Niveau 2: Une évaluation ponctuelle pour certains projets critiques, mais pas de vision globale
Niveau 3: Inventaire exhaustif et régulièrement mis à jour de la dette technique pour chaque projet

Disposez-vous de critères clairs pour quantifier la dette technique (impact sur la maintenabilité, performance, sécurité, évolutivité) ?
Niveau 1: Évaluation au ressenti ou selon l’expérience d’experts, sans cadre formel
Niveau 2: Quelques critères identifiés, mais sans méthode de scoring uniforme
Niveau 3: Méthodologie de scoring adoptée, permettant de prioriser et de mesurer l’évolution de la dette technique

Avez-vous établi un plan de réduction ou de refactoring pour gérer la dette technique au fil de la vie du projet ?
Niveau 1: Aucun plan, la dette s’accumule jusqu’à causer des problèmes majeurs
Niveau 2: Actions correctives envisagées occasionnellement, souvent repoussées par manque de budget ou de temps
Niveau 3: Plan d’action planifié et intégré dans la roadmap projet, avec un suivi régulier et un budget alloué

Les risques liés aux projets (délais, qualité, sécurité, dépendances) sont-ils identifiés et analysés de manière formalisée ?
Niveau 1: Découverte des risques au cas par cas, pas de document de suivi
Niveau 2: Identification de risques majeurs à l’initiative du chef de projet, sans processus global
Niveau 3: Cartographie des risques formelle, mise à jour périodiquement et partagée avec les parties prenantes

Disposez-vous d’indicateurs ou de métriques pour surveiller l’évolution de la dette technique et son impact potentiel sur le projet (support, performance) ?
Niveau 1: Aucune mesure, observation empirique et réactive
Niveau 2: Quelques indicateurs isolés, mais pas de suivi systématique
Niveau 3: Tableau de bord dédié, indicateurs mis à jour à chaque itération ou jalon

Les risques sont-ils évalués en termes de probabilité et d’impact (méthodes de scoring, matrice de risques) pour aider à la priorisation ?
Niveau 1: Aucune évaluation structurée, ressenti global sans méthode
Niveau 2: Évaluation partielle (faible/moyen/fort), parfois documentée
Niveau 3: Méthodologie formelle (probabilité × impact), partagée et mise à jour régulièrement

Le pilotage du risque est-il intégré aux instances de gouvernance (comités de pilotage, revues de projets) pour décider des mesures à prendre ?
Niveau 1: Gestion des risques décentralisée et réactive, pas de discussion formelle
Niveau 2: Présentation des risques majeurs au comité, sans actions correctives systématiques
Niveau 3: Suivi rigoureux en comité, décisions et actions correctives prises dès qu’un risque dépasse un seuil défini

Les responsabilités de gestion des risques sont-elles clairement attribuées (propriétaire du risque, plan d’action, échéances) ?
Niveau 1: Personne clairement désignée, responsabilité souvent floue
Niveau 2: Risques majeurs assignés à un responsable, mais pas de suivi global
Niveau 3: Chaque risque a un propriétaire identifié, avec un plan d’action et un échéancier clair

Avez-vous mis en place un processus de remontée d’alerte permettant d’anticiper la concrétisation de risques critiques (délais, sécurité, budget) ?
Niveau 1: Alertes ad hoc, déclenchées après l’apparition du problème
Niveau 2: Système de signalement informel ou manuel, réactivité variable
Niveau 3: Processus formel d’alerte précoce, outillé (dashboards, notifications), permettant une intervention rapide

Les choix technologiques ou fonctionnels sont-ils évalués au regard de l’augmentation potentielle de la dette technique et des risques associés ?
Niveau 1: Décisions dictées par l’urgence ou le coût immédiat, sans vision long terme
Niveau 2: Prise en compte partielle, pas de méthode structurée pour comparer les options
Niveau 3: Analyse d’impacts systématique, incluant dette technique et risques, pour orienter les décisions stratégiques

7. Rationalisation et plan d’optimisation

Disposez-vous d’une liste formelle recensant les projets présentant des redondances ou des chevauchements fonctionnels, justifiant une mutualisation ou une fusion ?
Niveau 1: Pas de repérage spécifique, les doublons sont découverts tardivement
Niveau 2: Identification ponctuelle de redondances, sans plan structuré pour y remédier
Niveau 3: Inventaire systématique des projets potentiellement redondants, analysés pour envisager une fusion ou une rationalisation

Avez-vous établi des critères clairs (coûts, valeur métier, risques, alignement stratégique) pour prioriser la rationalisation de certains projets ?
Niveau 1: Pas de critères définis, décisions au cas par cas selon l’urgence ou la disponibilité
Niveau 2: Quelques critères de base (budget, ROI), mais pas de méthodologie globale
Niveau 3: Critères formalisés et pondérés, validés par la gouvernance, appliqués à l’ensemble du portefeuille

Disposez-vous d’un plan d’optimisation global pour réduire la complexité (mutualisation de ressources, standardisation, réutilisation) ?
Niveau 1: Aucune démarche coordonnée, chaque équipe agit isolément
Niveau 2: Initiatives sporadiques de mutualisation, sans vision d’ensemble
Niveau 3: Stratégie globale d’optimisation, pilotée par un comité, intégrant tous les projets concernés

Avez-vous mis en place des actions de consolidation (migration, refonte, intégration) pour éliminer les projets ou outils obsolètes ou peu rentables ?
Niveau 1: Pas de démarche de retrait, coexistence prolongée d’anciens projets
Niveau 2: Retrait de certains projets identifiés comme non critiques, sans plan systématique
Niveau 3: Programme structuré pour évaluer chaque projet en fin de vie et planifier son remplacement ou son décommissionnement

Tenez-vous compte des économies d’échelle possibles (mutualisation de licences, d’infrastructures) dans la planification des projets ?
Niveau 1: Chaque projet gère ses besoins sans se coordonner avec les autres
Niveau 2: Mutualisation opportuniste sur certains segments (licences, serveurs), sans généralisation
Niveau 3: Approche globale pour exploiter systématiquement les synergies entre projets (licences, hébergement, support)

Les évolutions ou refontes planifiées s’appuient-elles sur des solutions standardisées ou préconisées, réduisant la complexité technique et fonctionnelle ?
Niveau 1: Solutions ad hoc, sans recherche de standardisation
Niveau 2: Utilisation de standards pour quelques projets, mais pas de politique clairement définie
Niveau 3: Politique de standardisation formelle, favorisant le réemploi de composants et limitant la diversité technologique

Avez-vous un processus de pilotage régulier pour suivre les progrès de la rationalisation (indicateurs, jalons, retours d’expérience) ?
Niveau 1: Aucune instance dédiée, initiatives dispersées et non mesurées
Niveau 2: Quelques revues ponctuelles au sein de certains comités, métriques peu formalisées
Niveau 3: Tableau de bord et reporting régulier, instance de pilotage dédiée pour garantir l’avancement et mesurer les gains

Les utilisateurs finaux et les métiers sont-ils impliqués dans la démarche de rationalisation (identification des doublons, définition des besoins réels) ?
Niveau 1: Décisions prises uniquement par l’IT, risques de rejet ou de perte de valeur
Niveau 2: Consultation partielle des métiers, pas de processus collaboratif approfondi
Niveau 3: Processus participatif associant étroitement les métiers et les utilisateurs pour prioriser les rationalisations pertinentes

Procédez-vous à une analyse coûts/bénéfices pour chaque action de rationalisation (fusion, refonte, décommissionnement) avant de la lancer ?
Niveau 1: Aucune analyse préalable, décisions impulsives ou sous la pression budgétaire
Niveau 2: Évaluation sommaire, parfois sans suivre une méthode claire
Niveau 3: Analyse complète (TCO, ROI, risques) systématiquement réalisée et présentée à la gouvernance avant décision

Les résultats de la rationalisation (économies réalisées, réduction de la complexité, amélioration de la qualité) sont-ils mesurés et communiqués aux parties prenantes ?
Niveau 1: Pas de mesure ni de communication, l’impact reste inconnu
Niveau 2: Mesure ponctuelle des gains, communication principalement en fin de projet
Niveau 3: Indicateurs de performance suivis de manière continue et partagés avec toutes les équipes, favorisant la culture d’amélioration continue

8. Gouvernance et priorisation

Disposez-vous d’un processus formel de gouvernance pour décider du lancement, de la suspension ou de l’arrêt des projets (comité, critères, rôles définis) ?
Niveau 1: Pas de processus structuré, décisions prises au cas par cas sans alignement global
Niveau 2: Existence d’un comité ou d’une instance, mais critères et rôles insuffisamment documentés
Niveau 3: Gouvernance claire et partagée, avec un comité dédié, des critères de sélection et un calendrier de décisions régulières

Avez-vous défini des critères de priorisation communs (valeur business, ROI, risques, alignement stratégique) pour classer vos projets ?
Niveau 1: Priorisation à l’intuition ou basée sur l’influence de certaines parties prenantes
Niveau 2: Quelques critères de base sont utilisés, mais pas de grille d’évaluation complète
Niveau 3: Système de scoring formalisé et validé par la direction, utilisé de manière cohérente pour l’ensemble du portefeuille

Les métiers et les sponsors participent-ils activement à la priorisation et à la décision d’investissement dans les projets ?
Niveau 1: Implication limitée, l’IT ou la direction décident principalement
Niveau 2: Consultation des métiers sur demande, sans véritable co-construction
Niveau 3: Processus collaboratif régulier, sponsors et métiers s’expriment sur la valeur attendue, influençant la priorisation

Disposez-vous d’une feuille de route consolidée (roadmap) qui intègre tous les projets prioritaires et leurs échéances clés ?
Niveau 1: Pas de roadmap globale, suivi de projets ponctuel et éclaté
Niveau 2: Roadmap informelle ou partiellement documentée, pas toujours à jour
Niveau 3: Roadmap unique, mise à jour régulièrement, partagée avec toutes les parties prenantes

Avez-vous mis en place des instances ou des rituels de suivi (comités, revues de portefeuille) pour évaluer l’avancement et ajuster les priorités au fil de l’eau ?
Niveau 1: Pas d’instance dédiée, suivi sporadique ou informel
Niveau 2: Un comité existe, mais les revues sont irrégulières ou peu exploitées
Niveau 3: Revues planifiées (mensuelles/trimestrielles), pilotage dynamique et réallocation des ressources si nécessaire

Les arbitrages budgétaires sont-ils alignés sur la priorisation (les projets les plus stratégiques disposent-ils des moyens adéquats) ?
Niveau 1: Budgets alloués selon l’historique ou l’urgence, peu de lien avec les priorités
Niveau 2: Alignement partiel, parfois remis en cause par des contraintes internes
Niveau 3: Décisions budgétaires prises en cohérence avec la matrice de priorisation et la valeur métier attendue

Disposez-vous d’un mécanisme de validation des changements majeurs (coûts, scope, calendrier) en cours de projet ?
Niveau 1: Changements gérés de manière improvisée, sans structure de validation
Niveau 2: Validation par un responsable unique, pas de comité de changement formel
Niveau 3: Processus de change control clair (demande, analyse d’impact, validation en comité), documenté et respecté

Avez-vous défini des rôles et responsabilités clairs pour la gouvernance (sponsors, chefs de projet, PMO, direction) ?
Niveau 1: Rôles non formalisés, chevauchements et ambiguïtés fréquents
Niveau 2: Rôles identifiés, mais pas toujours compris ou respectés par les équipes
Niveau 3: Rôles clairement décrits dans une charte de gouvernance, chaque acteur connaît ses attributions et rend compte régulièrement

La priorisation est-elle révisée périodiquement en fonction de l’évolution du contexte (marché, concurrence, contraintes légales, urgences internes) ?
Niveau 1: Une fois décidées, les priorités restent figées, même si le contexte change
Niveau 2: Ajustements ponctuels, souvent sous pression d’événements majeurs
Niveau 3: Processus d’évaluation régulier (ex. trimestriel), permettant d’adapter la feuille de route aux nouvelles contraintes ou opportunités

Les décisions de gouvernance (démarrage, arbitrage, arrêt) sont-elles transparentes et communiquées à toutes les parties prenantes (direction, métiers, IT) ?
Niveau 1: Décisions prises dans un cercle restreint, peu ou pas communiquées
Niveau 2: Communication partielle, souvent tardive ou lacunaire
Niveau 3: Transparence assurée, communication formelle (comptes rendus, tableaux de bord), chaque acteur sait ce qui a été décidé et pourquoi

© Yann-Eric DEVARS - DYNAMAP. Tous droits réservés.

Nous avons besoin de votre consentement pour charger les traductions

Nous utilisons un service tiers pour traduire le contenu du site web qui peut collecter des données sur votre activité. Veuillez consulter les détails dans la politique de confidentialité et accepter le service pour voir les traductions.