16 novembre 2009

La performance de la marge brute : retour d'expérience

Le taux de marge brute est un indicateur clé dans toutes les entreprises mais il s’agit d’un indicateur financier, de résultat et donc un indicateur du passé ; ce que, en lecture anglo-saxonne, l’on nomme un "lagging indicator". Agir sur le taux de marge brute nécessite d’identifier les indicateurs opérationnels influençant la performance du taux de marge brute que l’on appelle encore les indicateurs d’action ou indicateurs avancés ou encore "leading indicators" ayant un lien de causalité fort avec l’objectif poursuivi (traduit par l’indicateur retardé). L’indicateur avancé permet ainsi l’anticipation sur une tendance qui sera confirmée par l’indicateur retardé de résultat.

Indicateur de résultat ou indicateurs d’actions, encore faut-il s’assurer de la validité et de la fiabilité de la mesure des indicateurs utilisés. La validité exprime le fait pour une mesure de réussir à rendre compte de ce qu’elle est censée représenter et la fiabilité exprime que cette mesure ne doit pas être entachée d'erreurs.

Enfin, ou avant tout, il convient de s’assurer et de tester les liens de causalité des indicateurs avancés à l’indicateur de résultat et de l’indicateur de résultat à l’objectif stratégique défini. L’indicateur de résultat évalue-t-il avec pertinence l’objectif ? En se rappelant qu’à UN objectif est associé UN et UN seul indicateur retardé.

La détermination du taux de marge brute s’exprime par le rapport de la consommation au chiffre d’affaires. La comptabilité analytique permet une analyse encore plus fine en identifiant la marge par famille d’articles. Choix des indicateurs, validité, fiabilité, lien de causalité, il convient donc préalablement d’analyser les flux autres que ceux issus des achats et des ventes et influençant le taux de marge brute pour identifier les fameux indicateurs avancés.

Cette analyse revient à rationaliser l’écart entre la consommation telle qu’elle ressort de la comptabilité et la somme des coûts moyens pondérés (CMP) des articles vendus. Cela revient encore à identifier et valoriser tous les flux logistiques entrant dans la consommation et à rapprocher cette valorisation de la consommation enregistrée en comptabilité.

Ce contrôle à réaliser périodiquement est primordial or force est de constater qu’il n’est pas systématiquement mis en place car si la problématique paraît simple à énoncer, sa résolution va vite devenir complexe.

Et pourtant, les enjeux de ce contrôle sont d’une grande importance :

- Identifier les flux participant à la consommation (les échantillons, les dotations aux commerciaux, les mises au rebut, les remplacements SAV, les prélèvements divers, la démarque dite inconnue, etc….),

- Permettre le choix des indicateurs de performance à retenir sur ces flux, et ainsi intervenir sur les sources logistiques internes de perte de performance au niveau de la marge brute, c'est à dire permettre d’identifier les indicateurs avancés liés à l’indicateur retardé taux de marge brute.

- Avoir l’assurance de la validité et de la fiabilité des indicateurs choisis et de leur lien de causalité avec l’indicateur de résultat,

- Maîtriser les causes internes de fluctuation de la marge brute (les indicateurs avancés). Il est plus aisé d’agir sur celles-ci que sur des actions marketing, ou de révisions de prix de vente ou sur des négociations de prix d’achat avec ses fournisseurs.

L'écart de rapprochement

Mais lorsque l’on essaie d’être exhaustif dans les opérations à prendre en compte pour effectuer ce rapprochement, force est de constater qu’il subsiste toujours un écart de rapprochement et que celui-ci peut, en fonction de la complexité de l’organisation ou du nombre d’articles gérés, représenter une valeur malgré tout significative. Et d’ailleurs, même lorsque cet écart global aboutit à une valeur acceptable, il peut en réalité cacher des variations importantes dans une analyse par article, les écarts négatifs dégagés par certains articles étant compensés par les écarts positifs d’autres articles.

J’ai plusieurs fois été amené à pratiquer ce type de rapprochement dans des entreprises du secteur de la distribution utilisant des ERP différents. Cette analyse était très chronophage pour arriver à un écart acceptable en valeur absolue mais à chaque fois les conclusions mettaient en évidence des dysfonctionnements impactant la performance du taux de marge.

Je pensais alors que je n’intervenais que sur des cas particuliers, le commentaire laissé par Michel Heck, dirigeant d’une SSII, en réponse à mon post sur l'évaluation des performances des entreprises indiquait que cette problématique était en fait récurrente dans beaucoup de sociétés et qu’une application avait été développée au sein de sa SSII pour y répondre.

Les causes de la difficulté de ce rapprochement sont de 3 ordres :

Un facteur informatique
A chaque opération logistique doit correspondre une opération informatique qui selon le cas influencera, ou pas, le calcul du CMP de l’article. Or toutes les situations logistiques ne peuvent être envisagées lors du paramétrage initial des ERP. On constate alors avec le temps une inflation dans la création d’opérations informatiques intervenant dans le mouvement d’un article et/ou dans sa valorisation et par là même, devant un tel choix, on crée un risque d’erreur dans leur utilisation par les personnes concernées.
A contrario, pour le traitement informatique de certains flux logistiques peu courants et non envisagés lors de la mise en place de l’ERP la tentation est grande pour les utilisateurs de se servir d’opérations informatiques existantes mais non destinées à l’origine pour le traitement de ce type de flux.

Inflation dans la création d’opérations informatiques, absence de contrôle des habilitations quant à leur utilisation, flux logistiques non prévus à l’origine et emploi de procédures alternatives, ces événements s’ils ne sont pas contrôlés et corrigés conduisent inévitablement à des erreurs dans le calcul informatique du CMP de l’article et donc dans le calcul de la marge brute.

Enfin, une attention particulière doit être porté quant à l’assurance de la bonne gestion informatique des dates d’opération dans l’ensemble des traitements du système d’information. Ce point semble relever de l’évidence, il est pourtant encore trop souvent une source de dysfonctionnement.

Un facteur humain
Le facteur humain est aussi créateur d’écarts par l’erreur (erreur de saisie, erreur de référence, erreur de conditionnement, erreur de date, etc. …) ou encore par le non respect ou la méconnaissance de certaines procédures dans le traitement des opérations à suivre.

Un facteur gestion
Enfin les méthodes de gestion utilisées sont également générateurs d’écarts voire d’erreurs si les règles de gestion n’ont pas été correctement définies et intégrées au système d’information.
Ainsi, les écarts de valeurs entre les prix de commande et les prix facturés doivent, en comptabilité, être activés en stock, et donc participer au calcul du CMP, mais que pour la quote-part des articles restant en stock lors de la réception de la facture. A contrario, dans le travail de rapprochement de la valorisation des flux logistiques à la comptabilité il conviendra d’ajouter à la valorisation des flux logistiques les écarts de valeurs correspondant aux articles consommés.

La réalisation d’un tel contrôle ressort un peu complexe mais il permet au Directeur financier, outre le fait d’avoir une parfaite connaissance de l’ensemble des flux logistiques, d’offrir la possibilité d’un pilotage de la marge sur des indicateurs valides, fiables et démontrant leurs liens de causalité à la marge brute.

Qu’en pensez-vous ?

1 commentaire:

  1. "Indicateur de résultat ou indicateurs d’actions, encore faut-il s’assurer de la validité et de la fiabilité de la mesure des indicateurs utilisés" : cette affirmation résume parfaitement tout le contexte.

    En fait, cet article pose le problème de la qualité des données dans les Systèmes d’Information (S.I.) et son impact sur le pilotage de l’entreprise.

    Sur ce sujet, on assiste aujourd’hui à une prise de conscience générale. En effet, plusieurs enquêtes ou communications récentes - Benchmark Group, BO, ACCENTURE, IBM, KPMG - démontrent que la majorité des décideurs, des directions financières, des auditeurs internes et externes craignent de prendre des décisions inadaptées en raison de données de leur S.I. jugées peu fiables.

    Deux exemples viennent confirmer leurs préoccupations (Source Decideo.fr - Philippe Nieuwbourg) :

    - seuls 6% des utilisateurs considèrent n'avoir aucun problème de qualité des données ... ou à ne pas les avoir encore découverts,

    - seul un décideur sur dix pense avoir accès aux bonnes informations pour lui permettre de prendre ses décisions critiques pour l’entreprise.

    Inquiétant : toujours selon la même source, 82% des utilisateurs de systèmes décisionnels sont à la recherche de solutions pour améliorer la qualité de leurs données !

    Dans une communication parue dans Le Nouvel Économiste du jeudi 7 mai 2009, Norbert HERITIER - Directeur KPMG, dresse un état des lieux de l’usage des nouvelles technologies dans les PME :

    - 80% des entreprises se servent de tableaux de bord comme aide à la décision afin de permettre à leurs dirigeants de fixer des objectifs stratégiques et de suivre leurs activités de près.

    - Toutefois, l’analyse de KPMG met en lumière :
    ** les nombreuses difficultés rencontrées par les entreprises à construire et entretenir des bases de données à jour,
    ** les sources de blocage liées à la non-fiabilité des données induite par une mauvaise alimentation des bases de données,
    ** ainsi que les freins à l’utilisation des logiciels du fait des temps d’implémentation ou des problèmes d’interface … la généralisation des fichiers Excel étant très souvent à l’origine de perte de productivité.

    Sur la base de questions ciblées sur la notion de "performance de la marge brute", TCI a interrogé 285 entreprises industrielles ou de distribution/négoce. Sur 210 réponses "exploitables", 180 entreprises, soit 85% des répondants, reconnaissent que la fiabilité de la valorisation de leurs stocks et de leurs coûts de production basée sur les coûts réels constituent un point souvent très critique dans la maîtrise des risques opérationnels et la détermination de la marge et du résultat.

    D’ailleurs, par rapport aux outils de B.I. ou d’analyse des données du marché, l’approche de la solution développée par TCI [*] - dont fait allusion Philippe MULARSKI - est tout à la fois complémentaire et différente :

    - Complémentaire car notre solution détecte et quantifie les écarts entre une valeur fournie (stock, coût de production ou marge) par rapport à la valeur de référence comptable du stock (procédés brevetés) ; nous rendons très rapidement apparents, lisibles et explicables tous les dysfonctionnements survenus par mouvement pour la totalité des articles du S.I.

    - Différente car nous traitons la qualité des données en amont de ces outils de B.I., permettant ainsi la restitution de données de référence destinées à fiabiliser les travaux de reporting, l’analyse des indicateurs de performance ou les différents tableaux de bord de l'entreprise : finances, gestion, ...

    Michel HECK - Thémis Conception Informatique (TCI)
    [*] GEDIA Audit - Site : www.gedia.fr/audit/

    RépondreSupprimer

Add a comment :

 
over-blog.com