Cas client: Modélisation développement du chiffre d’affaires

Cas client: Modélisation développement du chiffre d’affaires

1) Mise en contexte

Q: En une minute, quel était le contexte client et le déclencheur de la mission ?

Le client est un groupe français de retail. Il est positionné sur un type de produit sur lequel la concurrence est féroce, notamment par le biais de la vente en ligne de produits similaires. Mon client distribue à la fois en ligne et par un réseau de magasins.

Q: Qu’est-ce qui “bougeait” dans l’offre (gamme, pricing, segments, canaux, packaging…) et pourquoi ça posait problème ?

Mon client avait besoin d’y voir clair sur la contribution nette de chaque produit au résultat de l’entreprise, au-delà de la lecture simple de la marge commerciale. C’est-à-dire qu’il fallait intégrer un certain nombre d’éléments additionnels qui ne sont pas dans la marge (coût logistique, coût d’acquisition client…) afin d’identifier sur quels produits il était réellement intéressant pour lui de porter des axes de développement (en termes de rentabilité)

Q: Quels symptômes montraient que les outils/approches en place ne suffisaient plus ?

Le développement des ventes de certains produits ne se traduisait par une augmentation cohérente dans le résultat de l’entreprise.

Q: Quel était le risque principal si rien ne changeait (marge, décisions trop lentes, incohérences, charge, promesses commerciales…) ?

Prendre des décisions de développement sur des produits finalement peu contributeurs dans le résultat net de l’entreprise

2) Objectifs et cadrage

Q: Quel était l’objectif n°1 de l’outil côté client ?

Disposer d’informations fiables sur la contribution nette de chaque produit au résultat de l’entreprise pour projeter l’évolution de la société à horizon 5 ans

Q: Quels étaient les utilisateurs cibles (DAF/RAF, CDG, commerce, direction…) et les moments d’usage (budget, arbitrages, offres, reprévision…) ?

Les utilisateurs cibles étaient les concepteurs de l’offre produit: direction de la stratégie de l’offre et contrôle de gestion offre

Q: Qu’est-ce qui était “non négociable” (délai, simplicité, fiabilité, traçabilité, compatibilité outils) ?

La fiabilité et la traçabilité étaient les 2 premiers éléments clés

Venaient ensuite le côté interactif et facile à prendre en main de l’outil

Q: Comment avez-vous cadré le périmètre au départ pour éviter l’outil “usine à gaz” ?

Nous avons recensé l’ensemble des offres produits, des canaux de ventes et des frais directs qui pouvaient entrer dans le calcul de la rentabilité nette.

Nous avons ensuite établi une proposition d’éléments à prendre en compte dans la contribution nette en éliminant les éléments qui ne permettaient pas de faire une différence de niveau de contribution entre produits et en éliminant les coûts qui étaient non significatifs ou pour lesquels aucune information fiable n’était disponible dans l’entreprise.

3) Approche et méthode

Q: Quelle a été votre première étape concrète (cartographie de l’offre, clarification des règles, diagnostic données…) ?

La première question à laquelle nous devions répondre était le niveau de contribution réelle de chaque produit au résultat de l’entreprise.

La première étape a consisté à cartographier l’offre de l’entreprise et à identifier les informations utiles au calcul de la contribution nette.

Nous avons ensuite organisé une réunion d’arbitrage avec la direction pour valider la définition, pour l’entreprise, de cette contribution.

Puis nous avons effectué le calcul de contribution par produit et de nouveau organisé un point de validation avec la direction.

Nous avons ensuite construit l’outil de simulation permettant de projeter la performance économique de l’entreprise en fonction du développement des produits, véritable enjeu de ma mission

Q: Comment avez-vous structuré le modèle : quelles grandes briques / modules ?

Les grandes briques utilisées étaient la part de marché, l’évolution prévisionnelle du marché, la politique tarifaire et la politique de choix des marques distribuées.

Q: Comment avez-vous choisi le bon niveau de granularité (produit, service, option, client, segment…) ?

L’arbitrage s’est fait naturellement pour permettre des arbitrages macro. L’outil de simulation devait être facile à prendre en main, même pour un non-financier. L’outil devait donc être construit de manière lisible et avec un nombre d’hypothèses à saisir qui soit limité. Par ailleurs, il fallait que la nature des hypothèses à saisir soit cohérence avec les éléments de connaissance du marché dont on peut disposer à 5 ans.

Q: Quelles hypothèses/variables étaient vraiment clés à intégrer pour que l’outil soit utile (volumes, prix, mix, coûts, remises, capacité…) ?

Les hypothèses clés étaient surtout liées à des questions de mix (mix produit, positionnement tarifaire, évolution du mix marché)

Q: Sur les données : quelles difficultés typiques et comment les avez-vous contournées ?

Nous avons rencontré des problèmes de données source avec degré de précision insuffisant. Ces problèmes ont fait l’objet d’arbitrages en comité de pilotage. Certaines ont été écartées, pour d’autres des hypothèses ont servi de base au calcul. Ces hypothèses ont été documentées soigneusement car le besoin de l’entreprise était de pouvoir mettre à jour les données de contribution par produit ainsi que la projection des ventes à plusieurs reprises dans le futur.

Q: Qu’avez-vous fait pour garantir la fiabilité (contrôles, garde-fous, tests, versioning) ?

Des contrôles systématiques ont été mis en place à chaque étape des calculs et de la construction du fichier de simulation. Ces contrôles étaient paramétrés avec un code couleur de sorte que toute anomalie soit visible immédiatement.

Chaque version du fichier a été historisée pour permettre la traçabilité des modifications.

Une notice a été fournie avec le fichier de simulation pour garantir la bonne compréhension et la bonne manipulation de l’outil.

Les onglets de calcul et de source de données ont été masqués pour éviter toute mauvaise manipulation.

De même, les cellules disponibles à la saisie des hypothèses ont été mises sur fond de couleur afin d’être facilement identifiables. Lorsque c’était possible, le remplissage de ces cellules a été « accompagné », par des listes de valeurs ou des critères bornant la saisie possible. Toutes les autres cellules ont été protégées, sans mot de passe évidemment, l’objectif étant de protéger uniquement contre des erreurs de manipulation uniquement. Le fichier étant transmis au client par la suite, celui-ci doit bien évidemment pouvoir effectuer des modifications s’il le souhaite.

Q: Comment avez-vous arbitré entre robustesse du modèle et simplicité d’usage au quotidien ?

Avec la méthode GBS, le Grand Bon sens.

4) Construction de l’outil

Q: Quel format / support avez-vous retenu (Excel, Power BI, autre) et pourquoi ce choix ?

Le format d’outil nous a été imposé par le client, il s’agissait de Google Sheet. Ce choix a plutôt une contrainte techniquement.

Q: Quelles fonctionnalités étaient indispensables (scénarios, sensibilité, comparatifs, alertes, contrôles de cohérence…) ?

Toutes. Mais avant tout, ce qui était important, c’était la qualité de la restitution, l’onglet de synthèse en fait, qui permettait de tracer l’impact des modifications. ainsi, Chaque hypothèse avait dans cet onglet le résultat de son impact financier clairement montré. Cette partie-là est très importante pour la bonne compréhension et pour la prise de décision ultérieure, surtout quand il y a des impacts en cascade. Il faut bien remettre les effets en lien avec leur hypothèse source. « Il faut rendre à César ce qui appartient à César ».

5) Pilotage, rituels et adoption

Q: Comment avez-vous travaillé avec le client : ateliers, rituels, arbitrages, validation progressive ?

Dans un premier temps, nous avons réalisé des ateliers avec les parties prenantes pour bien prendre connaissance de tous les éléments.

Puis nous avons procédé à des arbitrages partagés avec la direction.

Ensuite, nous avons travaillé main dans la main avec le chef de projet et la personne qui devait reprendre l’usage de l’outil ensuite.

Q: Qui était le sponsor / relais interne, et quel rôle a-t-il joué ?

En interne, le client était la personne en charge de la stratégie de l’offre, épaulée par un chef de projet pour le pilotage du projet au quotidien. Le sponsor était la directrice administrative et financière.

Q: Quels ont été les freins à l’adoption (habitudes, complexité, manque de temps, sujets politiques) ?

Le manque de temps était un frein ainsi que la complexité du sujet. Nous nous sommes attachés à intégrer à toutes les étapes la personne qui reprendra le sujet en interne ensuite et fera les simulations. Nous avons également organisé des réunions de suivi pour nous assurer de la vie de l’outil après notre départ.

Q: Qu’est-ce qui a le plus aidé à embarquer (co-construction, démonstrations, formation, documentation, quick wins) ?

C’est la perception de la valeur ajoutée de l’outil qui a été le plus contributeur d’engagement chez le client.

6) Résultats et impacts

Q: Concrètement, qu’est-ce que l’outil permet de faire aujourd’hui qui était difficile/impossible avant ?

Il permet de projeter facilement et en moins de 5 minutes une rentabilité future de l’entreprise, principalement en saisissant des hypothèses macro d’évolution du marché et de la part de marché de l’entreprise.

Q: Quels gains ont été observés (temps, fiabilité, alignement, qualité des arbitrages, visibilité marge) ?

Le principal gain est la sérénité dans la prise de décision, conséquence de la facilité de simulation et de la fiabilité de la projection.

Q: Qu’est-ce qui a changé dans les échanges Finance–Commerce–Ops grâce à cette modélisation ?

C’est le côté projection moyen terme, tester des scenarios avec un minimum de temps et pour un maximum d’informations

7) Difficultés et apprentissages

Q: Quel a été le point le plus dur dans la mission (données, règles, alignement, délais…) ?

Le point le plus difficile a été de concevoir un outil simple sur la base d’informations complexes. Faire simple est finalement souvent quelque chose de compliqué. Ou plutôt qui mérite une véritable réflexion préalable. Le risque serait de créer des biais en simplifiant ce qu’il ne faut pas.

Q: Quelle erreur classique avez-vous évitée (ou que vous auriez aimé éviter plus tôt) ?

Nous avons évité le fameux « ça dépend ». L’outil permet d’obtenir des éléments tangibles d’arbitrage.

Q: Si c’était à refaire, que feriez-vous différemment dès le départ ?

Je referais le cadrage du besoin directement avec le sponsor et pas seulement le chef de projet.

Q: Quel conseil donneriez-vous à une entreprise dont l’offre évolue vite et qui veut “reprendre la main” ?

De construire un outil qui permette d’intégrer cette notion de rapidité. Il faut trouver le bon équilibre pour atteindre le niveau d’approximation acceptable. Il vaut mieux créer un outil « acceptablement » imparfait plutôt que d’attendre l’outil parfait mais qui arrivera trop tard.

8) Conclusion orientée “valeur Synauxis”

Q: Quel a été, selon vous, le facteur clé de succès de la mission ?

Le binôme intervenant sur la mission était très complémentaire. Cela a permis d’améliorer la réactivité au service du client.

Q: En quoi l’approche Synauxis a fait la différence (posture, méthode, pragmatisme, expertise finance) ?

C’est le fait que la compétence financière soit directement disponible en interne, donc dès le premier rendez-vous pour bien comprendre le besoin client et constituer l’équipe capable d’y répondre.

En une phrase, comment résumeriez-vous le bénéfice client ?

Simplicité, agilité, efficience