Livre

CHAPITRES

La gestion des opérations au sein du génie industriel

Définition officielle de l’Institute of Industrial Engineering (http://www.iienet2.org/Details.aspx?id=282) : "Industrial engineering is concerned with the design, improvement and installation of integrated systems of people, materials, information, equipment and energy. It draws upon specialized knowledge and skill in the mathematical, physical, and social sciences together with the principles and methods of engineering analysis and design, to specify, predict, and evaluate the results to be obtained from such systems."

Le génie industriel consiste donc à concevoir, mettre en œuvre, améliorer et gérer les systèmes de production de biens et services.

La lecture exacte serait «entreprises de production de biens et entreprises de service». En effet, une entreprise de service n’est pas forcément une entreprise de production de service.

Domaine d'application

Dans le domaine manufacturier (aéronautique, automobile, électroménager, électronique, etc...), l’ingénieur industriel conçoit le système de production qui va permettre de produire de manière sécuritaire et économique les produits conçus par l’ingénieur mécanicien, électricien ou autre, en utilisant des systèmes de commande de machines complexes, des robots conçus par l’ingénieur électrique, des réseaux informatiques et des automates conçus par des ingénieurs informaticiens.



Figure 1 : Les liens entre le génie industriel et les autres génies en production de biens



Dans le domaine des services (systèmes hospitaliers, entreprises de transport de biens ou de personnes), l’ingénieur industriel travaillera beaucoup à l’optimisation des services (optimisation des transports, optimisation des flux de produits, optimisation des routes et des tournées de véhicules, optimisation des salles d’opérations et des spécialistes). Il travaillera aussi beaucoup à la définition des horaires de travail dans les systèmes complexes (horaires du personnel hospitalier).

Le génie industriel et son histoire

On produit depuis la nuit des temps, mais longtemps, la production est restée une organisation artisanale, de compagnons ayant un grand savoir faire. La révolution industrielle1 du 18ème va mettre en place les éléments rendant possible l’émergence de l’organisation scientifique du travail (OST). C’est durant cette révolution industrielle que l’on développe les technologies principales dans les domaines du textile, de la chimie, de la construction, de la métallurgie et du verre. Pour prendre exemple dans les bouteilles de verre, la première entreprise de production de bouteilles en France date de 1290. Une entreprise comme Saint-Gobain (www.saintgobain.com) existe depuis 1665. Dès les années 1670, le procédé de production de verre est maitrisé. En 1870, on produit, en France seulement, 115 millions de bouteilles par an2. L’aire de la production artisanale finit au début du 19ème siècle. Un armurier français, Honoré Blanc, développe à la fin du 18ème le concept de pièces interchangeables dans la fabrication de fusils3. Schématiquement, il propose de produire des fusils si similaires les uns aux autres qu’il sera possible d’en fabriquer un nouveau à partir de fusils endommagés. Cela lui demande plusieurs progrès importants :
  • Nécessité de maîtriser la cotation fonctionnelle
  • Utilisation de formes et de gabarits
  • Diminution du savoir-faire au profit d’opérations moins spécialisées
Il va jusqu’à prétendre pouvoir fabriquer des fusils de meilleure qualité en utilisant les «ouvriers sans qualification du pays». Il convainc Napoléon de faire un essai, mais se retrouve confronté à deux oppositions majeures : l’académie des sciences qui n’est pas à l’origine de l’invention (et la repousse) et les corporations professionnelles qui y voient une menace pour leur pouvoir. Combattu, le projet sera abandonné, mais Thomas Jefferson, ambassadeur des États-Unis naissants à Paris et futur président des États-Unis va rencontrer Honoré Blanc. Il ramènera les idées de ce mode de fonctionnement et convaincra Éli Whitney, fabricant de machines agricoles de se lancer dans la production industrielle de mousquets avec ces principes. C’est le début de l’American system of manufacturing.
1 http://en.wikipedia.org/wiki/Industrial_Revolution
2 Merveilles de l’industrie, Guy Figuier, 1870, tome « industrie chimique », page 45
3 ALDER K : L’amnésie des armuriers français. Comment une innovation technologique majeure peut-elle tomber dans l’oubli ? La Recherche n°308 p78-84 1998.

American system of manufacturing

Durant le 19ème aux États-Unis principalement, se mettent en place les premières productions industrielles de produits manufacturés (assemblage de multiples composants fabriqués séparément). Des tentatives avaient été faites auparavant dans le domaine horloger principalement.

Les progrès faits dans les technologies de production de métaux, de mesure, d’usinage, conjointement à l’ouverture de nouveaux marchés (ouverture sur la Chine et le Japon), la mise en route de grands travaux (Canal de Suez, etc.), mettront en place tous les éléments d’une augmentation graduelle mais importante des besoins de production. En Europe, la production de fonte est multipliée par 10 entre les années 1850 et 19101.

L’accent n’est pas encore mis sur la recherche systématique de la productivité, et surtout, le travail reste fait par des personnes ayant des compétences techniques. C’est durant cette période que les premières formations en génie industriel apparaîtront.

Dans la fin du 19ème, Taylor va mettre en place les bases du «scientific management»2. Essentiellement, c’est la recherche de l’efficacité maximale de l’ouvrier au travail, qui passe par des mesures précises des vitesses de travail, des mouvements effectués, etc. Au cœur du «scientific management», on retrouve la séparation stricte entre l’organisation du travail (conception du poste, organisation, définition des phases, etc.) et le travail lui-même. L’opérateur n’a plus de rôle dans la définition de sa tâche et l’organisation de son travail. Il devient un exécutant pur.

1 Histoire des techniques, Bernard Gille, collection La pléiade, Paris 1978.
2 http://en.wikipedia.org/wiki/Frederick_Winslow_Taylor

Fordisme (ou taylorisme) : le mass production

Les travaux de Taylor et d’autres trouveront leur apogée dans la conception des premières lignes d’assemblage automobile Ford aux États Unis1, au début du 20ème.

Le taylorisme ou fordisme se traduira par une double décomposition du travail :

  • Décomposition horizontale et réduisant le travail de chaque opérateur à un minimum d’opérations élémentaires permettant un travail extrêmement répétitif permettant de bénéficier au maximum de l’effet d’apprentissage

  • Décomposition verticale en introduisant une lourde hiérarchie d’encadrement, chacun définissant le travail des autres.
Cette double décomposition façonnera la société américaine et introduira des caractéristiques durables qui perdureront largement au-delà des seuls systèmes de production :
  • Une lourdeur des niveaux hiérarchiques dans les organigrammes des sociétés

  • Une grande importance des syndicats par métier2 dans les industries de production de masse

  • Une déresponsabilisation des opérateurs vis-à-vis de la qualité et de toute opération autre que leur tâche précise
Le taylorisme et fordisme verront naître les disciplines de calcul des temps standards, de management des opérations, de l’ergonomie, etc.

Finalement, le symbole du taylorisme sera la ligne de production manufacturière en automobile, qui restera la norme durant toute la première moitié du 20ème siècle.

Le Fordisme se caractérisera aussi par une intégration verticale à outrance : une conception d’une entreprise monolithique intégrée, allant de la matière première au produit fini. Le modèle d’affaire est un modèle de production de masse et d’un investissement important dans le système de production rentabilisé par les économies d’échelle induit par la masse des produits identiques fabriqués.


1 http://fr.wikipedia.org/wiki/Henry_Ford
2 http://en.wikipedia.org/wiki/Craft_unionism

Le toyotisme (production flexible ?)

Le toyotisme se développera dans un contexte très conflictuel au Japon dans la fin des années 50. Pays en reconstruction, le Japon doit adapter son industrie aux contraintes du pays et le modèle de la Mass production ne peut s’appliquer dans un marché de petite taille. Deux ingénieurs, Taiichi Ohno1 et Shigeo Shingo2 et un statisticien américain W. Edwards Deming3 vont développer des méthodes d’organisation de production basées sur la production flexible : adapter les systèmes de production aux plus petites séries, en cherchant d’autres sources de gain que les économies d’échelles dues à la mass production, et en particulier:
  • Le concept de Just in Time (no delay),
  • Le kaizen (amélioration continue),
  • Le 5S (amélioration de l’environnement de travail),
  • Le SMED (réglage en moins de 10 minutes),
  • Les 5 zéros (zéro stock, zéro délai, zéro papier, zéro défaut, zéro panne),
  • Le Kanban et le flux tiré.
Ces méthodes s’adaptent à une production en plus petite série, où les économies sont obtenues non pas avec une économie d’échelle faite sur des opérations répétitives, mais en améliorant systématiquement tous les éléments du système.

L’énorme différence entre le fordisme et le toyotisme tient à la remise en cause de la décomposition verticale du travail. On rend dans le toyotisme l’initiative aux opérateurs qui prennent en charge une grande partie de la conception de leur tâche. Avec le SMED, ils assurent les réglages (contrairement à ce qui était fait dans le système fordiste), ils assurent la maintenance de premier niveau et l’entretien de leur machine (les 5S), ils participent activement à l’amélioration de leur poste (Kaizen, amélioration continue).

Schématiquement, on peut dire qu’en séparant le système de travail du système de commande, la science de «l’operation management» cherchait un point de fonctionnement optimal d’un système donné et essayait de stabiliser le système de production autour de ce point de fonctionnement. En revanche, le système Toyota va chercher à améliorer systématiquement le système, quitte à ne pas avoir le point de fonctionnement optimal.

Ce système, comme le fordisme-taylorisme, va largement dépasser la sphère de l’automobile pour se rependre dans toutes les entreprises manufacturières.

Durant les années 80, James Womack4 va étudier systématiquement toutes les entreprises automobiles du monde afin de comprendre pourquoi les entreprises américaines se faisaient dépasser par les entreprises japonaises dans le domaine automobile. Son livre synthèse, «the machine that changed the world»5 reste un ouvrage culte dans le domaine du génie industriel. Il reprendra à la façon américaine le toyotisme, sous la forme du Lean manufacturing.

1 http://fr.wikipedia.org/wiki/Taiichi_Ohno
2 http://en.wikipedia.org/wiki/Shigeo_Shingo
3 http://en.wikipedia.org/wiki/W._Edwards_Deming
4 http://www.lean.org/
5 The Machine That Changed the World Womack, James P.; Daniel T. Jones; and Daniel Roos, Publisher: Free Press, ISBN: 978-0-7432-9979-4

Théorie des contraintes

En 1984, Eliyahu M. Goldratt, (http://en.wikipedia.org/wiki/Eliyahu_M._Goldratt), consultant israélien écrit le fameux ouvrage "The Goal". Il sera traduit dans de nombreuses langues, et deviendra un livre culte. Globalement, "the Goal" est un roman au travers duquel Eliyahu M. Goldratt explique sa vision de l'amélioration des performances d'une organisation : Toutes les énergies doivent être tournées vers un but unique, améliorer le goulet d'étranglement qui limite les rentrées financières de l'entreprise.
À partir de là, il développe la théorie des contraintes (http://fr.wikipedia.org/wiki/Th%C3%A9orie_des_contraintes) qui peut aussi être étudiée sur le site de Hohmann (http://chohmann.free.fr/toc/toc.htm). On pourrait résumer simplement la théorie en disant que tout effort consenti par l'entreprise pour améliorer un processus qui n'est pas un goulot d'étranglement est en fait une perte sèche pour l'entreprise. Un des effets de bord de cette théorie sera la remise en cause de la manière de comptabiliser les inventaires dans les indicateurs de performance. Le but n'est pas de produire, mais de vendre. Un autre effet de bord sera une remise en cause systématique des approches dites "en silo" ou chacun essaye d'améliorer son propre sous système au profit d'approches plus systémiques où chacun se demande comment il contribue aux objectifs communs de l'organisation.
L'auteur étendra ensuite cette théorie, avec un logiciel OPT basé sur les contraintes (mais qui n'a jamais eu réellement de succès) et plusieurs ouvrages pour l'appliquer à d'autres secteurs que le manufacturing.
De fait, aucune activité de Eliyahu M. Goldratt n'aura d'impact comparable à son livre mythique, "The Goal", devenu livre de chevet de nombreux managers dans la fin du 20ième siècle.

Lean manufacturing

James Womack pose les bases du lean manufacturing dans une série d’ouvrages sur le « lean thinking », et autres applications du Lean. Pour l’essentiel, il reprend les éléments qu’il a décrits dans le livre « the machine that changed the world» comme étant les déterminants de la réussite des entreprises japonaises dans le secteur automobile.

C'est donc en quelque sorte la relecture du système Toyota par Womack. Il met l'accent sur la chasse systématique de tous les gaspillages. Chasse aux tâches inutiles (sans valeur ajoutée), chasse aux rebuts et autres coûts de non qualité, chasse aux stocks inutiles, etc.
On peut donc dire qu'il s'agit de baisser les coûts de production, à volume de production (throughput) constant.

Dans la fin des années 90, un chercheur du GERSICA Michel Freyssenet adoptera un point de vue radicalement différent, expliquant que c'est plutôt le modèle d'affaire (nature du produit, approche du marché, mode de rémunération, etc.) qui aboutissait au modèle japonais, et qu'en conséquence, il est illusoire de vouloir calquer ce modèle de production sur des modèles d'affaire différents. Ces analyses sont extrêmement pertinentes pour comprendre les limites de la transposition du lean manufacturing aux entreprises n'adoptant pas les mêmes modèles d'affaire. Le texte qu'il écrit s'intitulera avec humour Le monde qui a changé la machine

Mass customization

Le concept de mass customization est introduit comme une suite au toyotisme. Il s’agit de produire des produits personnalisés (bien au-delà de la production flexible ou plusieurs produits différents partageaient le même outil de production) de manière...
Introduit comme un clin d’œil en réponse au Mass Production, le Mass Customization peut être entendu de plusieurs manières différente, allant de :
  • La définition de produits modulaires à partir de composants standards de base, le plus souvent à l’aide d’un logiciel spécialisé (un configurateur). On trouve cela par exemple dans les meubles de cuisine, ou les vérandas.

  • La définition de produits spécifiques en jouant sur des jeux d’option ou de variation comme dans l’automobile,

  • La définition de produits spécifiques à partir de produits types, que l’on va modifier pour les adapter au besoin du client, comme dans le cas de vêtements adaptés.

Dans le dernier cas (principalement), on cherche à repousser au maximum la spécialisation dans le cycle de fabrication. Ce point du cycle de fabrication s’appelle le point de différentiation.

  • Avant ce point, il y a un seul produit (standard) qui peut être géré sur stock (beaucoup moins de variations puisque ce produit regroupe toutes les demandes de produits différentiés).

  • Après ce point, si le délai de fabrication est inférieur au délai du marché (délais accepté par le client) on peut fabriquer à la demande.

Le « Mass customization » ne correspond pas réellement à un modèle de production (comme le fordisme, taylorisme ou toyotisme), mais plutôt à une définition des produits.


Références :


http://www.managingchange.com/masscust/overview.htm
http://en.wikipedia.org/wiki/Mass_customization

Les grands domaines du génie industriel

Les trois grandes activités du génie industriel consistent à :
  • Concevoir les systèmes de production de biens ou de services

  • Améliorer les systèmes de production de biens et de services

  • Piloter les systèmes de production de biens et de services
La conception des systèmes fait appel aux méthodes et outils de l’automatisation, de la mesure de performance et de l’ergonomie pour la conception ergonomique et sécuritaire des postes de travail, aux méthodes d’implantation d’atelier et de conception d’usines. La conception du système inclue aussi la détermination des modes de conduite (flux poussé ou tiré), la détermination des règles de gestion (détermination des règles d’approvisionnement et de gestion des stocks).

L’amélioration des systèmes de production de biens et de service est une méthode basée sur l’observation des systèmes, la modélisation des flux et des processus, l’analyse des modèles. L’amélioration des systèmes fait donc appel aux méthodes de business process reingineering15 et outils de production à valeur ajoutée, incluant les méthodes 6-sigma, Kaizen, Smed, ainsi que les méthodes liées à la qualité.

La gestion de ces systèmes fait appel aux systèmes d’information et aux méthodes et outils de gestion des opérations, incluant toutes les étapes de planification des ressources, de gestion des approvisionnements et de gestion de la distribution.

La gestion des flux de matière, d’information et financier

Une entreprise manufacturière est schématiquement au confluent de 3 flux.

Les trois flux
Figure 1 : Les trois flux

  • Le flux d'information (en rouge)
    Essentiellement, il porte les commandes clients et les demandes d'approvisionnement. Évidement, on lui rattachera toute la gestion des clients (Customer Relashionship Management, CRM) et la gestion des fournisseurs et des achats
  • Le flux matière (en bleu),
    avec d'un coté les matières premières entrantes et de l'autre les produits finis
  • Le flux financier (en vert)
    Avec le paiement des fournisseurs et la facturation des clients

Globalement, le but de la gestion des opérations est d'orchestrer au mieux l'utilisation des ressources de l'entreprise pour optimiser le flux de matière, en tenant compte des flux d'information et des flux financiers.

Du point de vue "gestion des opérations", le commandes clients sont considérés comme des données (contrairement au marketting qui s'intéressera à agir sur les demandes clients).
De la même manière, les conditions financières liées aux achats (prix, délais de paiement, condition de paiement, etc.) seront considérés comme connus et seront éventuellement utilisés pour comparer différentes stratégies d'organisation des flux de produits.

Les grands noms du génie industriel

On peut distinguer 3 étapes : les précurseurs (qui ont rendu possible ou battît l’American system of production), la période du « tayolisme-Fordisme », la période récente.À COMPLÉTER


Les précurseurs (avant 1900)

  • Blanc Honoré (1736-1801)
Très peu de documents sur cet entrepreneur de Roanne en France, qui invente le premier les méthodes de tolérance et de mesure permettant de fabriquer des composants INTERCHANGEABLES. Il invente le concept de production industrielle et donc la mass production. Il cherche sans succès à promouvoir ses méthodes auprès de Napoléon. Dans un premier temps, Napoléon le soutient, mais le danger de mouvements sociaux (les ouvriers des corporations ressentant déjà le passage d'une production artisanale à une production industrielle comme une dégradation de leur rôle) pousse Napoléon à reculer. Thomas Jefferson (le futur président des US), ambassadeur en France rencontrera Honoré Blanc et de retour aux Amériques, il convaincra Eli Whitney (fabricant de machines agricoles) à se lancer dans la fabrication industrielle de mousquets. http://en.wikipedia.org/wiki/Honor%C3%A9_Blanc
  • Diderot (1713-1784)
Bien que cela puisse paraître curieux, l'encyclopédie de Diderot est la première publication en français décrivant en détail les techniques et méthodes industrielles de l'époque. Les planches de cette encyclopédie sont un excellent témoignage des moyens de cette époque. http://fr.wikipedia.org/wiki/Diderot
  • Smith Adam (1723-1790)
Le premier, économiste américain, pose les bases de la division du travail et de la productivité.Son œuvre principale est en ligne en Pdf. En particulier l'ouvrage de base sur "in Inquiry into the Nature And Causes of the Wealth of Nations". http://generation.feedbooks.com/book/210.pdf et http://fr.wikipedia.org/wiki/Adam_Smith
  • Whitney Eli (1765-1825)
Le premier à introduire réellement les méthodes de production industrielles à grande échelle. On lui a longtemps attribué la paternité de la "mass production" que l'on a récemment rendu à Honoré Blanc. http://en.wikipedia.org/wiki/Eli_Whitney


La charnière américaine (1900-1920)

  • Fayol Henri (1841-1925)
Alors que Taylor travaille sur l'organisation scientifique du travail manuel, Fayol se concentrera sur l'organisation des tâches de planification et de gestion. http://fr.wikipedia.org/wiki/Henri_Fayol. On peut citer >a HREF="http://www.annales.org/edit/gc/2000/gc12-2000/73-87.pdf"> un article intéressant>/A> sur sa vision du management (par Jean Louis Peaucelle)
  • Ford Henri (1863-1947)
Fonde avec la Ford T au début du vingtième siècle pose les base de la mass production. Avec Taylor, il pose les bases de l'organisation scientifique du travail. http://en.wikipedia.org/wiki/Henry_Ford
  • Gantt Henri (1861-1919)
Il met au point le fameux diagramme de Gantt si utile en planification des opérations. http://en.wikipedia.org/wiki/Henry_Gantt
  • Taylor, Frederick Winslow (1856-1915)
Ingénieur mécanicien, il fonde à la fin du 19ème l'organisation scientifique du travail. Il collabore avec Henri Ford sur les lignes de production. Son influence sur l'organisation des systèmes de production sera prépondérante. http://fr.wikipedia.org/wiki/Frederick_Winslow_Taylor
  • Sloan Alfred P. (1875-1966)
Alors que Henri Ford crée une entreprise monolithique extrêmement centralisée, Alfred Sloan amènera une vision plus décentralisée et découpée à Général Motor. Ce mode de gestion basé sur des objectifs ciblés permettra un rapide développement de GM. Cette approche sera plus critiquée au moment du passage au Lean Manufacturing. http://en.wikipedia.org/wiki/Alfred_Sloan


Le milieu et fin du vingtième siècle

  • Deming, William Edwards (1900-1993)
Père de nombreuses méthodes de gestion, il a fortement influencé les dirigeants Japonais dans la définition de ce que l'on a appelé les méthodes japonaises. Il laissera entre autre son nom à la roue de Deming. http://fr.wikipedia.org/wiki/William_Edwards_Deming
  • Goldratt Eliyahu M. (1945- )
Un des premiers GURU du management du 20ème siècle, il développe successivement la méthode OPT (Optimized Production Technology), puis la TOC (Theory Of Constraints). Il est l'auteur du livre "The Goal" (le But) qui popularise sous forme de nouvelle ses principes de management. http://en.wikipedia.org/wiki/Goldratt
  • Hohmann Christian
Français (Alsacien) ayant acquis une remarquable expérience au sein d'une compagnie japonaise sur les méthodes du lean manufacturing et maintenant depuis 1990 un remarquable site sur les méthodes japonaises. À lire et relire. http://chohmann.free.fr/auteur.htm

  • Shingo Shiego (1909-1990)
Ingénieur industriel japonais, à l'origine de nombreux travaux sur le SMED, le KAIZEN et autres méthodes dites "japonaises" http://en.wikipedia.org/wiki/Shigeo_Shingo
  • Ohno Taiichi (1912-1990)
Ingénieur industriel japonais, à l'origine de la méthode Toyota (fondateur des principes du Juste A Temps) http://fr.wikipedia.org/wiki/Taiichi_Ohno http://www.strategosinc.com/taiichi_ohno.htm
  • Womack Jim
Professeur au MIT, il organise dans les années 80 une formidable étude sur les modèles d'organisation industriels dans l'automobile. Il en sortira une compréhension des modèles japonais qu'il communiquera dans son livre "The système that changed the word". Il deviendra ensuite le guru du Lean manufacturing. http://www.lean.org

Divers

Les associations et les sociétés savantes pour la gestion des opérations


APICS : Advancing Productivity, Innovation and Competitive Success
Elle se définit comme The association for operation management. Active depuis 1957 dans la formation au management de la production, dans la certification des compétences et dans le développement des connaissances.
Certifications:
  • CPIM (Certified in Production and Inventory Management)

  • CIRM (Certified in Integrated Resource Management)

  • CFPIM (Certified Fellow in Production and Inventory Management)
Site de l'APICS international : http://www.apics.org/default.htm
Site du chapitre de Montreal : http://www.apicsmontreal.org/index.php
La France a développé une communauté CPIM avec un site intéressant: http://www.cpimdefrance.com/page2.asp?rec=216


ASLOG : Association française pour la logistique
Association œuvrant en France pour la diffusion des connaissances, la formation et l'amélioration des compétences en logistique et transport. Offre une librairie de documents (bibliothèque virtuelle) réservée aux abonnés. http://www.aslog.org/fr/index.php


IIE :Institute for Industrial Engeneering
Fondé en 1948, cet organisme fait la promotion du génie industriel dans toutes les branches de la société. Il a créé des congrès, des revues, bref, il est le cœur de la communauté.
Site de la société : http://www.iienet2.org/
Chapitres Canadiens : http://www.iienet2.org/chapterdirectory.aspx?id=1470


I4e2:International Institute for Innovation, Industrial Engineering and Entrepreneurship
Association promouvant le génie industriel au sens large et organisant le congrès IESM. Cette association gère aussi un journal de recherche en accès libre. http://www.i4e2.com/


Les publications en gestion des opérations

À COMPLÉTER

La gestion des données



Le passage d'une production artisanale à une production industrielle a demandé de structurer, codifier et mémoriser les informations afin de conserver la connaissance des techniques et méthodes de production. Les données techniques décrivent les produits, les nomenclatures, les moyens de production et les gammes de production permettant de réaliser les produits avec les moyens disponibles. Les données techniques existent en dehors de toute production ou de toute demande. Elles décrivent le savoir faire de l'entreprise. Les données techniques seront complétées par les données de production qui elles, décriront l'encours de production, les ordres de fabrication, les inventaires, etc.

Gestion des données techniques


Les données techniques décrivent le savoir faire de l’entreprise, autrement dit :
  • ses produits,
  • ses ressources (moyens de production, outils, outillages, ressources humaines si nécessaire),
  • les gammes d'usinages et opérations permettant d’utiliser ces ressources pour fabriquer les produits.

Ces données techniques d’une entreprise existent en dehors de toute production. Elles sont en quelque sorte le capital de connaissance de l’entreprise. Pour établir les données techniques d'une entreprise, il faut :

  • Établir par observation le graphe (en fait un arbre) de déroulement matière (les étapes de transformation, stockage, contrôle et éventuellement attente) qui permettent de passer de matières première à des produits finis,
  • Décider quels sont les produits identifiés (stockés ou vendus): ces produits permettront de créer les nomenclatures et les morceaux de graphes entre les produits identifiés seront les gammes
  • Choisir comment regrouper toutes les machines en postes de charges.
  • définir les gammes d'usinages et opérations permettant d’utiliser ces postes de charge pour fabriquer les produits.

Produits

La description des produits passe par une codification. La codification des produits permet d'associer un code (un nom, un chiffre, un code complexe) et une description à un objet produit, stocké ou approvisionné.

Si le graphe de déroulement matière est un invariant, le découpage de ce graphe en produit et gammes est un choix. Il doit y avoir une adéquation entre les choix d'identification et l'organisation d'un atelier. Généralement, toutes les opérations d'une gamme seront faites dans un environnement suffisamment proche. On doit donc avoir une réflexion conjointe entre les produits à identifier et l'organisation des ressources. Le plus souvent, on essayera de stocker des produits intermédiaire qui peuvent servir à plusieurs produits fini juste avant l'opération qui les différenciera (avant la peinture par exemple) afin de minimiser le nombre de référence stockées.

Contenu de la fiche article

Outre le code, la fiche article doit mémoriser un certain nombre d’information, quel que soit son mode de traitement (informatique ou papier).

  • Données techniques
    • La désignation (libellé en clair donnant la description du produit)
    • Numéro de plan
    • La nature du produit (Matière première –MP-, Produit fini –PF-, autre)
    • Le type de gestion (sur stock, à la demande, sur prévision)
    • Données correspondante (quantité approvisionnée, etc.)
  • Informations de gestion
    • Fournisseur en cas de produit acheté
    • Prix, informations diverses sur la tarification, etc.

Les données liées à l’article sont plus importantes lorsque le fichier est informatisé. C’est dans la partie liée à la gestion informatique des données que cette description sera vue.

Nomenclatures

Une nomenclature décrit la composition d’un produit sous forme d’un arbre. Chaque produit fini est décrit par sa nomenclature.

  • Au sommet, le produit fini (par convention, niveau « 0 »)
  • Les nœuds intermédiaires représentent les composants (produits intermédiaires)
  • Les feuilles correspondent aux composants élémentaires (matière première)

Chaque nœud de l’arbre (sommet, feuille ou nœud intermédiaire) doit être codifié par un code unique.



Un lien entre deux éléments s’appelle un lien de nomenclature. Un lien de nomenclature est associé à une unité de mesure (unité, poids, volume, surface, caractérisant la nature de la composition) et une quantité. De fait, la nomenclature est une simplification du graphe de déroulement matière. Les produits de niveau 0 sont les produits finis (sortie du graphe de déroulement matière), les produits de plus bas niveaux, les composants (entrée du graphe). Les produits intermédiaires sont des nœuds du graphe de déroulement matière, mais certains nœuds du graphe de déroulement matière disparaissent dans la nomenclature.

Remarque :
Deux produits différents peuvent avoir la même nomenclature. En effet, les opérations de transformation faites sur ces produits peuvent différer, mais les composants être les mêmes.

On peut regarder des produits finis de plusieurs points de vue. Pour chaque point de vue, on aura une nomenclature différente .

Voir l'exemple de la roue de vélo (passage du graphe aux nomenclatures)
Voir l'exercice sur les moteurs électriques.

Postes de charges

Les postes de charge (postes de travail, work center, etc. ) sont les ressources sur lesquelles les produits vont être fabriqués. Il existe plusieurs niveaux de détail pour décrire les postes de travail. Par exemple :

  • Niveau générique ou technologique: ex) les presses à injecter
  • Niveau intermédiaire : ex) les presses à injecter de 50 tonnes
  • Niveau détaillé (niveau machine): ex) la presse "SANDRETTO 40T MICRO / 107" numéro 2 (si il y en a plusieurs)

Ces trois niveaux ont chacun leur importance.

  • Le niveau générique peut être utile pour planifier la capacité de l'usine dans une technologie donnée (assemblage, tournage, fonderie, fraisage, montage électrique, etc.).
  • Le niveau intermédiaire peut permettre d'associer un produit à une technologie. En effet, si on considère un produit donné, toutes les machines d'une même technologie ne peuvent pas être utilisées, mais souvent plusieurs sont équivalentes.
  • Le niveau machine est indispensable pour la maintenance et pour le contrôle détaillé : si on ordonnance les opérations pour demain sur un diagramme GANTT, il faut pouvoir dire qu'un ordre de fabrication donné se fera sur une presse précise.

Le niveau détaillé (machine) ne pose pas de problème. Toutes les machines individuelles doivent être nommées, ne serait-ce que pour la maintenance, etc. Le niveau le plus générique (technologie) ne pose généralement pas de problème non plus. En revanche, le niveau intermédiaire est un point de vue. Il n'est donc pas unique. On peut regarder un parc de presses à injecter de plusieurs manières, par exemple:

  • Presses de 50 tonnes, presses de 60 tonnes, presses de 70 tonnes
  • Presses de 50 à 65 tonnes, presses de 65-90 tonnes
  • Presses de 50 à 70 tonnes, presses de 65 à 85 tonnes
  • Presses de 60 tonnes Sandretto, presses de 60 tonnes DEMAG

(Ces presses sont visibles sur http://www.2m-plasturgie.com/accueil0_2m_international.htm )

Tous les logiciels de gestion des opérations permettent de mémoriser les machines INDIVIDUELLEMENT. Tous les logiciels permettent de faire des regroupements de machines, en exprimant qu'une machine individuelle appartient à "une famille de machines" ou un "type de machines" ou un "groupe de machines". En revanche, au moment du paramétrage du logiciel, l'utilisateur doit CHOISIR le type de regroupement qu'il fait. La principale raison pour faire des regroupements de machines, c'est que plusieurs machines différentes sont INTERCHANGEABLES pour une opération donnée. Il faut donc NOMMER l'ensemble des machines interchangeables.


Voir par exemple l'exemple presse

Gammes

La gamme de production reprend toutes les informations du graphe de déroulement matière correspondant à un produit donné. Le plus souvent, la gamme est une séquence d’opérations numérotées de 10 en 10 (pour pouvoir insérer dans le futur d’autres opérations).Les composants de la nomenclature sont soit tous associés à la première opération, soit associés chacun à l’opération qui les intègre. En cas d’utilisation de logiciel, nommer l’opération où un composant est nécessaire peut être utile. Si tous les composants sont associés (par défaut) à la première opération, et si un composant manque (inventaire =0), le logiciel peut refuser d’autoriser le lancement des premières opérations, même si celle-ci n’utilisent pas le composant absent.

La gamme est aussi associée à une période de validité. En effet, le produit peut avoir, le long de son histoire, plusieurs gammes de production différentes. Il faut savoir quelle gamme utiliser lors de la fabrication d’un lot de pièces. On peut avoir la situation où deux ordres de fabrication coexistant dans l’atelier sont fait selon deux gammes différentes.

Éventuellement l’ordre des opérations n’est pas un ordre total (une séquence unique). Certaines opérations peuvent être effectuées dans un ordre indifférent. Ces possibilités sont le plus souvent laissées à l’appréciation d’un responsable de production (l’information est rarement codifiée, ni même consignée dans la gamme.

Opérations

Une opération de gamme de production décrit toutes les transformations qui se font sur un produit entre le moment où il rentre sur un poste de charge et le moment où il en sort. Au niveau de la gamme de production, on ne s'intéresse pas aux différentes phases d'usinage qui se suivent sur la machine. L'opération de gamme est au minimum caractérisée par :

  • le numéro de l'opération
  • le poste de charge sur lequel l'opération est faite
  • la désignation du travail effectué (fiche technique, dessin, etc.)
  • les outils ou outillages nécessaires pour réaliser la pièce
  • la durée de l'opération
  • les réglages à effectuer

Éventuellement, l'opération pointe aussi sur un programme de commande numérique si le poste de charge est une machine à commande numérique.

La notion de durée n’est pas aussi évidente qu’il ne parait. Il faut avoir toutes les informations pour calculer la durée opératoire nécessaire pour effectuer un lot de pièces et donc connaitre la fonction qui donne cette durée en fonction de la quantité Q :


[math]Durée=f(Q)[/math]

Le plus souvent, cette fonction tient compte de trois paramètres :

  • K, taille du lot de traitement
  • R, temps de réglage
  • P, temps de traitement d’un lot

[math]Durée=R+P\times ent\displaystyle\left( \frac{Q}{K} \right)[/math]

Il existe cependant des cas d' plus complexes

http://drupal.mgi.polymtl.ca/?q=node/4

De fait, si on utilise un système de gestion de la fabrication ou un ERP, la description de l'opération sera plus complexe.

Gamme de substitution

Que faire si le même produit peut être fait de plusieurs manières différentes? Le spectre des possibilités est très large. Le tableau suivant résume les principales possibilités:


1 Poste de charge avec machines différentes Un poste de charge est composé de plusieurs machines, chacun ayant un taux d’efficacité. Dans ce cas, toutes les opérations faites sur ce poste peuvent, par défaut, se faire sur toutes les machines du poste, avec une durée calculée comme le produit du temps nominal par le facteur d’efficacité.
2 Postes de charge de substitution Une opération « pointe » sur un poste de charge principal, mais aussi sur des postes de charge de substitution, avec un taux de dégradation du temps.
3 Opération de substitution Une opération dispose d’opérations de substitution, faites sur d’autres postes de charge. Ceci permet d’avoir une description (outillage, réglage, programme de commande numérique, etc…) différant de l’opération principale à l’opération de substitution.
4 Gamme de substitution Le produit a une gamme principale et une ou des gammes de substitution. Chaque gamme a sa propre définition, indépendante des autres.


Dans les cas 1, si un logiciel est utilisé, il est toujours capable de choisir lui-même la machine sur laquelle se fait l’opération (si un module d’ordonnancement est utilisé). Dans les cas 3 et 4, c’est à un utilisateur de dire que l’opération ou la gamme principale ne sera pas celle utilisée. Le logiciel n’est jamais capable de le dire lui-même. Dans le cas 2, cela dépend du logiciel.

Dans le cas 1, on exprime que les machines du poste de charge sont TOUJOURS substituables les unes aux autres, quelque soit le produit, et que les ratios de durée sont toujours les mêmes. Par exemple, deux machines de découpe laser de même surface de découpe, l’une en découpage rapide, l’autre fonctionnant à vitesse normale. Dans certain cas, les machines ne sont pas parfaitement substituables ou les ratios ne sont pas toujours les mêmes, mais l’approximation est suffisante.

Dans les cas 1 et 2, il n’y a qu’une description d’opération, mais plusieurs ressources possibles. Il faut donc que toutes les informations codifiées pour l’opération soient les mêmes sur chaque ressource. S’il y a des outillages, des durées de réglage, des programmes de commandes numériques ou toutes autres informations, il faut que ces informations soient valides quelque soit la ressource.

Gestion des données de production

Alors que les données techniques existent en dehors de toute activité, les données de production décrivent le travail en cours et à faire.

Fiche de stock

La fiche de stock permet de mémoriser le niveau de stock, les entrées et les sorties, les inventaires (comptage manuel des produits effectivement en stock). Pour un même produit, on peut avoir autant de fiches de stock que de lieux de stockage.

Ordres de fabrication (OF)

L’ordre de fabrication est l’expression d’un travail devant être fait dans l’atelier. Il contient les informations suivantes :

  • Numéro d’article
  • Numéro de gamme à utiliser
  • Quantité à fabriquer
  • État (en attente, bloqué, lancé, fini)
  • Date d’échéance (due date)
  • Date de début prévue (release date)

Les ordres de fabrication sont utilisés essentiellement en flux poussé, lorsque la production suit le plan de production établi à moyen terme.

Lorsqu’il est créé, l’ordre de fabrication est une prévision (il est créé par un plan, mais peut encore être remis en cause). Lorsque la date de début se rapproche, l’ordre de fabrication devient « bloqué » ou gelé. Cela signifie qu’il ne peut plus être modifié, du moins sans l’intervention d’un gestionnaire. Lorsque l’ordre de fabrication est mis en production, il passe de l’état bloqué à l’état lancé (ou encours).

Pour passer de l’état bloqué à l’état « encours » ou lancé, il faut généralement que tous les composants soient en stock. Souvent, si ce n’est pas le cas, le logiciel utilisé refusera de libérer l’ordre.

Lorsque la dernière opération est finie, l’ordre devient « fini ». Dans certains cas, c’est à ce moment là que les stocks de composants sont mis à jour. On parle de post consommation.

Le dossier de fabrication

Dans certains cas, lorsque l’ordre de fabrication est lancé, on créé une copie de la gamme de fabrication qui servira de gamme lors de la fabrication. Ceci permettra de modifier localement la gamme de cet ordre, sans pour autant modifier les données techniques, donc les données utilisées pour les autres ordres.

Gestion informatisées des données

Le plus souvent, les données sont gérées par des logiciels. L’utilisation d’un logiciel, permet d’accéder plus facilement aux informations, de les faire vivre, de faire des transactions automatiques. Il existe essentiellement 3 niveaux de logiciel pour gérer les données techniques :
  • Base de données maison avec ou sans applications maisons,
  • Logiciel de gestion des opérations,
  • ERP intégrée.

Dans le premier cas, les données mémorisées sont celles dont on a besoin, puisqu’on les a définies pour cela. A priori, cela ne pose pas de problème. Malheureusement, souvent, ces logiciels ont vieilli et ne correspondent pas toujours aux besoins des entreprises.

Dans le cas de progiciel (logiciels achetés, soit spécifique à la gestion de production, soit des ERP), les tables ou fichiers sont définis comme un ensemble de « champs » ayant un nom, une description et une sémantique. La sémantique est souvent décrite par un texte explicatif, mais elle est surtout liée à l’usage de ce champ qui est fait par les programmes qui utilisent ces données. L'installation d'un logiciel gérant les données techniques passe par les étapes suivantes:

  • Choix des applications (modules) utilisés et en conséquences des champs de données à remplir,
  • Saisie des produits (Matière première, composants, nomenclature). On commence généralement par les matière première pour créer en même temps les liens de nomenclatures (les composants doivent exister pour créer le composé),
  • Création des postes de charges,
  • Création des Gammes et des opérations (les postes de charges doivent êtres définis).

Le paramétrage du logiciel commence par déterminer quels champs seront utilisés et quels champs seront oubliés. Ce choix est fondamental et demande de bien connaître les usages faits de ces données.

Fichiers articles

Les premières données à remplir sont les produits . En effet, ces données n’utilisent aucune autre information. Parmi les données a remplir, les plus classiques sont :

  • Quels produits identifier. Si l’organisation de l’atelier doit évoluer, il est important de faire les modifications avant de codifier les articles, de telle sorte que le travail ne soit fait qu’une seule fois,
  • Quel type de gestion pour chaque article (sur stock, sur point de commande, périodique, à la commande, etc...). Ce choix est fondamental, mais il est malheureusement souvent assez mal fait et surtout, personne ne saura le remettre en cause ultérieurement,
  • Selon le type de politique, les paramètres (quantité à approvisionner, point de commande, période, etc...) qui théoriquement demande de travailler sur un historique,
  • Le Lead TIME, qui est le temps global de production d'un lot de ce produit, incluant les opérations de production, de contrôle, les attentes, etc.

Le Lead time d'un produit A donné est utilisé pour que les applications faisant la planification de la production puisse positionner une date de début de production (et donc la date de réception des composants du produit) lorsque l'on souhaite une date de livraison d'une quantité donnée de ce produit A. Ce Lead Time est lié au produit ou article, donc il est donc indépendant du nombre de produits fabriqués. Cela peut paraitre étrange que l'on considère qu'il faille le même temps pour fabriquer un lot de pièces, quelque soit sa taille. Notons cependant :

  • Le lead time contient beaucoup plus de temps d'Attente que de temps de production. L'attente totale est elle-même souvent un multiple du nombre d'opérations,
  • L'habitude étant souvent de choisir un approvisionnement en quantité constante, on a souvent un lot de cette taille là.

Évidemment, le choix du type de gestion, des paramètres et du lead time sont fondamentaux pour le fonctionnement de toutes les applications de l’entreprise. Malheureusement, on trouve encore beaucoup d'entreprises qui passent peu de temps de réflexion pour remplir ces champs (voire les confient à des stagiaires qui les remplissent au mieux de leurs connaissances, puis disparaissent avec la justification de leurs choix). D'Autre part, des choix de quantités ou périodes fixes (souhaitées économiques)devraient évoluer au fil des ans et de l'évolution de la demande, alors que dans la réalité elles sont rarement mises à jour.

Lien de nomenclature

Une fois les produits créés, les liens de nomenclatures permettent de constituer les nomenclatures globales. Pour chacun des liens, on doit donner :

  • L'unité utilisé (unité, kg, cm, etc..),
  • La quantité de composant dans le composé,
  • Souvent une date de création ou de validité

Les données techniques sont des données importantes pour l'entreprise. La saisie d'une donnée peut déclencher plusieurs processus dans le logiciel: un erreur dans l'unité par exemple peut alors s'avérer lourde à corriger.

Postes de charges

Souvent, le terme poste de charge est utilisé, mais on peut trouver d'autre termes comme : ressource, machine, poste de travail,, etc. Dans tout les cas, il faut arbitrer ce que l'on va décider de déclarer dans le fichier. Pour chacune des ressources identifié, il faudra saisir:

  • Sa désignation,
  • Le nombre d'exemplaire,
  • Éventuellement un calendrier d'usage,
  • Quelque fois le taux de productivité (temps utile en % du temps total),
  • Souvent des informations relatives au coût horaire (pour pouvoir faire des devis).

Évidemment, si l'on décide de changer l'organisation industrielle et de passer d'une organisation fonctionnelle à une organisation en cellule, cela a des impacts sur la définition des postes de charges et peut remettre en cause un grand nombre de données.

Gammes et opérations

Une fois les produits, nomenclatures et ressources (postes de charges ou autre) créés, on peut créer les gammes. Généralement, l'identification d'une gamme est l'identification du produit suivi d'un numéro d'ordre (il peut y avoir plusieurs gammes associées au même produits). En règle général, une seul gamme est valide à un instant donné. En règle générale, les données saisies sont :

  • Nom de la gamme et période de validité,
  • Créateur de la gamme,
  • Pour chaque opération:
    • Le numéro d'opération,
    • Le poste de charge (souvent choisi dans une liste),
    • La durée opératoire (immobilisant la machine),
    • La durée de préparation (set-up),
    • Quelques fois des informations sur le nombre d'opérateurs utilisés,
    • Un plan d'opération ou une liste de consignes.
    • Etc. selon la complexité du logiciel.

Habituellement la codification des opérations se fait de 10 en 10, pour permettre d'en rajouter au besoin.

Ordres de fabrication

Les ordres de fabrication (OF) sont soit créés à la main, soit créés par un logiciel de planification. Ils correspondent à une décision de fabriquer un certain nombre de produit pour une date donnée. Les informations liés sont :

  • Numéro de l'ordre (généralement généré automatiquement),
  • Identifiant du produit (le plus souvent choisi au travers d'une liste),
  • La quantité à produire,
  • La date due (date d'échéance)
  • La date de début prévue,
  • L'état (proposé, confirmé, lancé, fini),

Généralement, au moment de la création d'un OF, on va dupliquer la gamme (celle valide au moment de la création de l'OF) pour associer une copie de la gamme à l'OF. De cette manière, si il y a des changements imposés (changer de machine parce qu'une machine est en panne, reprise d'une opération mal faite, etc.) on pourra altérer localement cette gamme sans toucher aux données techniques de l'entreprise. Dans les logiciels sérieux, on ne peut pas faire passer un OF à l'état "lancé" ou "en cours" si on ne dispose pas des quantités voulus de composants (données par la nomenclature). En revanche, certains logiciels permettent la mise à jour automatique des niveaux de stocks des composants (donc sans intervention manuelle) lors du lancement de l'OF (passage à l'état en cours).

Autres données

L'utilisation d'un logiciel va souvent permettre (ou demander) la création d'autres données plus variées, et souvent plus liées à la gestion globale qu'à la gestion des opérations :

  • Commandes clients,
  • Lignes de commande (une par article),
  • Bon de livraison,
  • Bons de sortie matière,
  • Etc.

Ces données sortent du domaine de la gestion des opérations.

PLM

Le Product Lifecycle Management est l'ensemble des outils permettant de gérer les données techniques d'un produit. Initialement, les données techniques sont gérées par deux familles de logiciels :

  • Les logiciels de DAO/CAO (Dessin Assisté par Ordinateur et Conception Assistée par Ordinateur), CAD/CAM e nanglais,
  • Les PGI (Progiciel de gestion intégéré, ERP -entreprise Resource Planing en anglais).
Petit à petit, pour les produits complexes, les enjeux des données techniques ont augmentés avec la gestion des versions, la gestion des options et des variations, le croisement entre électronique et mécanique (produits mécatroniques) au point que les logiciels de gestion de donnée stechniques sont devenus de plus en plus cruciaux et stratégiques. C'est l'émmergence des PLM. Plus d'information peuvent se voir sur le site de Wikipedia par exemple.

Les méthodes de prévision



Les prévisions ne sont pas réservées à la gestion des opérations. Elles sont évidement beaucoup plus vastes. Globalement, il existe 3 méthodes principales pour effectuer des prévisions1.
  • Méthodes informelles,
  • Méthodes extrapolatives,
  • Méthodes explicatives

La prévision ne peut être obtenue qu'en combinant au mieux, en fonction de la situation, ces trois approches.

Pour établir des prévisions avec une méthode extrapolative, les étapes sont les suivantes:
  • Chercher des données historiques (Chronique),
  • Corriger et nettoyer la chronique (erreurs, points aberrants...),
  • Identifier le modèle sous-jacent (généralement linéaire-tendance, avec ou sans saisonnalité),
  • Si besoin est, désaisonnaliser,
  • Filtrer les données (éliminer le bruit),
  • Établir des prévisions sur le modèle,
  • Resaisonnaliser si besoin,

Dans la plupart des cas, la prévision pour la date courante + n périodes est simplement la valeur filtrée actuelle + n fois la tendance.
La tendance peut être évaluée la plupart du temps en étudiant la chronique y(t)-y(t-1) (avec y(t) est la chronique filtrée, désaisonnalisée si besoin) qui est une chronique constante si le modèle est un modèle à tendance.
1 http://fr.wikipedia.org/wiki/Pr%C3%A9vision_%C3%A9conomique

Les trois méthodes de prévision

Les méthodes informelles utilisent des experts, soit au travers de focus groups2 , soit en utilisant des méthodes moins formalisées.
Ces méthodes utilisent les connaissances implicites des experts, leur connaissance des phénomènes spéciaux, leur connaissance d'événements futurs. Ils apportent dans la prévision du futur tout ce qui ne s'expliquera pas par le passé.Les méthodes informelles complètent souvent les autres méthodes, lorsque des phénomènes nouveaux interfèrent avec des phénomènes plus classiques et plus connus.

Les méthodes extrapolatives permettent d’analyser des séries chronologiques (historique d’une variable X(t) sur une longue période allant de -∞ à t) pour déterminer les valeurs prévisibles à t+1, t+2, etc. Ces méthodes ne cherchent pas à expliquer l’historique, mais seulement à le prolonger. En fait, la seule variable « explicative » utilisée par les méthodes extrapolatives est le temps pour les saisonnalités.

Les méthodes explicatives, quand à elles cherchent à expliquer un historique par des variables exogènes. On va chercher des relations du type


[math]v(t)=f(x_1(t),x_2(t),...,x_n(t))[/math]


Où les xi(t) sont des variables dont on connait les valeurs au cours du temps.


Exemple 1

Soit une entreprise québécoise, fabriquant des meubles haut de gamme pour le marché américain. Elle prépare son plan stratégique pour l’année suivante et se demande quelle seront ses ventes aux États-Unis. Elle peut :

Réunir ses responsables des ventes, et essayer de faire un focus groupe sur leur perception du marché, sur leur perception de la concurrence, etc…
Ressortir 3 années d’historique, état par état (ou globalement) et chercher si les ventes suivent une tendance ou des saisonnalités. Ensuite, anticiper le futur en extrapolant le passé.
Sachant que les ventes dépendent du prix et de l’état de la consommation, utiliser 3 historiques; les ventes v(t), le prix du baril de Pétrole (pb(t)) et le taux de change du huart (tch(t)) et chercher à expliquer les ventes par le prix du baril et du huart v(t)=f(pb(t),tch(t)). Ensuite, réunir des expert et établir des scénarios possibles de l’évolution du prix du baril et du taux de change, et en déduire des scénarios de ventes.

Exemple 2
Comment anticiper les ventes de bières dans une grosse épicerie?
On peut utiliser un historique, repérer des saisonnalités (par exemple pic de vente le mardi) et faire un modèle basé sur l’historique.
On peut aussi essayer d’expliquer les variations par les matchs des canadiens et par la température. Ces deux variables exogènes donneront peut être une meilleure précision que la seule utilisation de l’historique.

Le rôle des prévisions dans la GOP

La prévision en gestion des opérations à pour but de dimensionner les ressources à mettre en place pour pouvoir faire face à la demande. Les prévisions seront utilisées au niveau stratégique et au niveau tactique.

En gestion des opérations, on utilise le plus souvent les méthodes extrapolatives, corrigées par des méthodes informelles pour prendre en compte les phénomènes exceptionnels identifiés. Les méthodes extrapolatives consistent en une succession d’étapes bien déterminées :

  • Acquisition des données historiques (recherche et nettoyage
  • Identification du modèle
  • Filtrage des données pour éliminer les variations à court terme
  • Prévisions à partir des données filtrées

L’identification du modèle consiste d’une part à choisir le type de fonction représentant le mieux l’historique, mais aussi, une fois la fonction choisie, à trouver les paramètres de cette fonction représentant le mieux l’historique

Exemple :




Sur cet exemple, la même série chronologique a été utilisée sous Excel pour déterminer une prévision. On a essayé 3 modèles :

  • En haut à droite, modèle polynomial d’ordre 2,
  • En bas à gauche, modèle exponentiel,
  • En bas à droite, modèle linéaire.

Excel permet de choisir le type de la courbe de tendance et donne simultanément les paramètres de la fonction de ce type s’ajustant le mieux aux données et le coefficient R2.3 Sur cet exemple, la prévision faite avec le modèle polynomiale serait sans doute de « 9 » pour la prochaine période, avec le modèle exponentiel de 15, et avec le modèle linéaire de 13. Le choix du modèle est donc fondamental. On peut avec Excel non seulement avoir les paramètres du modèle mais aussi les « valeurs » prévisibles dans le futur (insérer une courbe de tendance+choisir le modèle+prévision transférer x période).

Les principaux modèles utilisées en gestion des opérations sont :

  • Modèle constant
  • Modèle à tendance
  • Modèle constant ou à tendance avec saisonnalité
    • Saisonnalité additive
    • Saisonnalité multiplicative

____________

1 http://fr.wikipedia.org/wiki/Pr%C3%A9vision_%C3%A9conomique
2 http://en.wikipedia.org/wiki/Focus_group
3 Le coefficient R2 mesure la part de la variance totale de la chronique par la variance de l’approximation, autrement dit c’est la (variance du modèle)/(variance de X(t)). Proche de 1, le modèle explique bien les données.



Acquisition des données d’historique

L’acquisition des données d’historique est un travail long, fastidieux et délicat. Les données ne sont jamais dans le format voulu, elles ne représentent jamais exactement ce que l’on cherche, elles sont entachées d’erreurs, elles comportent des aberrations.

Les données historiques utilisées en gestion des opérations sont essentiellement :

  • Production par unité de temps (heure, jour, semaines, mois, année)
  • Vente par unité de temps (jours, semaine, mois, années)
  • Chiffre d’affaire par unité de temps (semaine, mois, années)
  • Demande par unité de temps

Le premier travail consiste donc à travailler sur les données brutes pour obtenir des données exploitables. Les étapes du travail sont essentiellement :

  • Recherche des données dans les différents systèmes d’information
  • Corriger l’historique
    • correction des erreurs majeures
    • correction des anomalies identifiables
    • redressement structurel (périodes inégales)
  • Redresser l’historique (correction des biais interprétables)
  • Lisser l’historique

La première correction consiste à rechercher les données aberrantes, soit les erreurs de transcription, soit les erreurs de saisis. Ces erreurs sont fréquentes et peuvent être trouvées en recherchant systématiquement les valeurs au-delà de la moyenne +- deux écart types.

Les anomalies identifiables sont les anomalies qui ont eu une influence importante sur l’historique, mais qui expriment des phénomènes que l’on ne retrouvera pas. On peut parler :

  • Phénomènes climatiques ayant eu une influence
  • Phénomène exogène ayant eu une grosse influence (11 septembre, tsunami, etc.)
  • Phénomène endogène non renouvelé (période d’arrêt de travail par exemple)

Ces corrections sont manuelles et doivent éliminer l’influence de ces phénomènes sur la chronique.

Le redressement structurel est plus complexe. Les données historiques sont souvent issues de l’observation d’un phénomène dans le temps, que l’on agrège par période. L’hypothèse est que les périodes sont définies de telle sorte qu’elles soient comparables. Les périodes sont souvent fixées indépendamment du phénomène et sont intrinsèquement inégales par rapport à ce phénomène.

  • On utilise le mois, alors que le nombre de jours diffère et que le phénomène est lié au nombre de jour,
  • On utilise le mois alors que les jours ont une grande importance (fin de semaine en particulier) et le nombre de jours spéciaux diffère d’un mois à l’autre
  • On utilise la semaine, mais en cas de jours ferrié, on perd 1/7 de la semaine.

Pour corriger ce phénomène, on doit définir une unité élémentaire de capacité, analyser la composition de chaque période en fonction de cette unité élémentaire de capacité (nombre d’unités élémentaires de capacité à chaque période) et puis évaluer dans la période la charge moyenne de cette unité élémentaire d’une unité de capacité élémentaire.

Voir la fiche technique Redressement Structurel dans la section des fiches techniques.

Exemple de redressement avec des jours ouvrables.


Lorsque le demande journalière est indépendante du jour de la semaine (par exemple une entreprise travaillant 5 jours semaine et livrant indifféremment sur les 5 jours), la demande apparante du mois doit être corrigée pour ramener cela à un nombre standard de jours ouvrables:

  • Soit [math] n_i [/math] le nombre de jour ouvrable du mois i
  • Soit [math] d_i [/math] la demande apparente du mois i
  • Soit [math] dr_i [/math] la demande redressée:
  • [math]dr_i = \displaystyle\frac{\sum_{j = 1}^{12} n_j}{12}*\frac {d_i}{n_i} [/math]


    Donc si les demandes des 12 mois de 2011 étaient (626,621,671,620,651,662,609,680,663,623,665,675), tenant compte du fait que le nombre de jours ouvrables a été de (21,20,23,21,22,22,21,23,22,2,22,22), le nombre moyen de jours ouvrables par mois était de 260/12=21,666
    Les demandes redressées sont donc de : 645,672,632,639,641,651,628,640,652,642,654,664.
    La variance de la chronique initiale est de 648 (écart type de 25), ce qui peut donner l'impression d'une demande très variable, alors que la variance de la chronique redressée n'est que de 160 (écart type de 12) ce qui est plus rassurant.

    Exemple de redressement avec des jours déséquilibrés.


    Soit une chronique donnant l'historique des ventes dans les 12 derniers mois (830, 716, 821, 847, 783, 811, 839, 798, 785, 736, 800, 891). La variance est de 2261, écart type de 47, soit un système peu stable.
    L'analyse montre que les moyennes des demandes par jours sont respectivement (9.3; 28.6; 29.4; 29.2; 28.9, 59) - les ventes sont fermées le dimanche.
    L'analyse montre donc que les contributions des différents jours de la semaines en "jours équivalents" sont (0.35; 1.85; 1.11; 1,11; 1,11; 2.24; 0).
    On peut ainsi calculer le nombre de jours équivalents de chaque mois: (30.6; 28; 31.3; 31.4; 29.5; 30.22; 31.34; 30.55; 30.2; 30.6; 30.2; 32.44). En appliquant la méthode d'équilibrage précédente, on obtient des données redressées de (828; 780; 800; 825; 812; 819; 817; 797; 793; 734; 808; 838). Une variance de 750 et un écart type de 27.

    ____________

    1 http://fr.wikipedia.org/wiki/Pr%C3%A9vision_%C3%A9conomique
    2 http://en.wikipedia.org/wiki/Focus_group
    3 Le coefficient R2 mesure la part de la variance totale de la chronique par la variance de l’approximation, autrement dit c’est la (variance du modèle)/(variance de X(t)). Proche de 1, le modèle explique bien les données.



Filtre suivi de prévision versus régression linéaire

Lorsque l'on dispose d'un ensemble de point décrivant un phénomène dans le temps, si l'on intuite une comportement linéaire, il est tentant de faire une régression linéaire1, de prendre les valeurs des coefficients a et b de la courbe, et d'utiliser ces valeurs pour prédire les valeurs futures. Cette méthode est simple (même sous Excel), surtout qu'il n'y a dans ce cas qu'une seule variable explicative, le temps. Cela pose cependant plusieurs problèmes :

  • Dans la régression, chaque valeur est équiprobable. Donc les valeurs passées ont autant d'importance que les valeurs récentes, alors que dans le cas de chroniques, on accorde souvent plus d'importance au passé proche qu'au passé lointain (la variable temps n'est pas une variable "ordinaire").
  • Dans la régression, on suppose généralement les données valides, alors que dans une chronique temporelle, on sait que, même si il y a un modèle sous-jacent, chaque valeur est bruitée (terme d'erreur).

Les méthodes préconisés pour prévoir dans une chronique consistent à contourner ces deux problèmes, et principalement:

  • Filtrer les données pour éliminer le bruit (les erreurs)
  • Choisir le type de modèle et estimer les paramètres de ce modèle
  • Utiliser ce modèle pour prévoir

Les méthodes de filtre avec la moyenne ou le lissage exponentiel apportent un gros avantage : elles ne prennent en compte qu’un horizon limité (moyenne mobile) ou accordent plus d’importance au passé proche qu’au passé lointain. Dans le cas ou la tendance évolue dans le temps, les méthodes de filtrage vont mieux caler à l’évolution du modèle.

Lorsque la chronique a une composante saisonnière, on doit rajouter une étape de désaisonnalisation (éliminer les effets de la variation saisonnière). Doit-on le faire avant ou après le filtrage. En le faisant avant (filtrage de la chronique brute avant de désaisonnaliser), on risque d'atténuer les effets saisonniers en filtrant. On confond ainsi un phénomène de variation saisonnière normal avec un bruit. Mais pour filtrer après avoir désaisonnalisé, il faut connaitre le modèle a priori.

Ne seront présenté ici que des méthodes simples de filtrage (moyenne mobile, centrée, lissage exponentiel) et des méthodes simples d'évaluation des paramètres.

Des méthodes plus avancées de prévision peuvent être vue dans : http://fr.wikipedia.org/wiki/ARMA

1 http://fr.wikipedia.org/wiki/R%C3%A9gression_lin%C3%A9aire

Méthodes de filtrage des données

Filtrer, c'est traiter une chronique pour éliminer tous les phénomènes perturbant qui d'une période à l'autre viennent brouiller le modèle sous-jacent. On filtre une chronique avant de faire les prévisions. Dans le cas d'une chronique saisonnière, on doit d'abord la désaisonnaliser avant de la filtrer. Les deux outils classiques sont la moyenne mobile et le lissage.

Moyenne mobile

La moyenne mobile est l’outil le plus simple pour filtrer une chronique et pour faire des prévisions. La moyenne mobile se définit de la manière suivante :


[math]\overline {y(t)} = \displaystyle\frac{1}{n} \sum_{i = 0}^{n-1} (y(t-i)) [/math]



Elle demande pour la calculer la connaissance des n-1 dernières valeurs de la chronique, plus la valeur courante. La moyenne mobile ignore le passé lointain et donne autant d’importance à chacune des « n » valeurs utilisées.



Prévision :

Dans le cas d’une chronique sans tendance, la moyenne mobile est un estimateur sans biais de la prévision et on a [math]\hat Y (t+i)=\overline {y(t)}[/math].

Si la chronique suit une tendance [math]y(t)= at + b [/math], alors la moyenne mobile des n dernières valeurs induit un biais de [math]\displaystyle\frac {m-1}{2}[/math] et on a : [math]\overline {y(t)} = a \left( t - \displaystyle\frac {m-1}{2} \right ) + b [/math].

Voir la fiche technique Prévisions dans la section des fiches techniques.



Remarque :
On utilise quelque fois la moyenne mobile centrée :


[math]\overline {y(t)} = \displaystyle\frac {1}{2n-1} \sum_{i = -n}^{n} y(t-i)[/math]



Ceci ne change pas trop, sauf que la moyenne mobile centrée n’introduit pas de biais lorsque la chronique suit une tendance, mais en revanche elle n’est pas définie pour les n dernières valeurs de la chronique.

La moyenne mobile d’ordre 2 noté [math] \overline{\overline {y(t)}}[/math] est la moyenne des moyennes :


[math]\overline{\overline {y(t)}}= \displaystyle\frac{1}{n} \sum_{i = 0}^{n-1} \overline{y(t-i)}[/math]



Prévision :

Dans le cas d’une chronique avec tendance, la prévision [math]\hat y (t+i)[/math] peut être obtenue par la courbe

[math] \hat y (t+i)= a*i + b [/math]


avec [math] a=\displaystyle\frac {2}{n-1} \left( \overline{y(t)}-\overline{\overline {y(t)}}\right)[/math] et [math]b= 2\overline{y(t)} - \overline{\overline{y(t)}}[/math]

Voir la fiche technique Prévisions dans la section des fiches techniques.

On peut aussi étudier la chronique [math]\overline{a(t)} = \overline{y(t)} - \overline{y(t-1)} [/math] qui est normalement une chronique constante de moyenne a. On peut prendre la moyenne des k dernières valeurs de a, faire un lissage exponentiel, etc..
Finalement, la prévision sera [math] \hat Y (t+i)= \overline{y(t)}+ a* \left( i+\displaystyle\frac {m-1}{2}\right) [/math]
Voir l'exemple dans le fiche technique Exemple de prévision avec la moyenne


Lissage exponentiel

Le lissage exponentiel permet de filtrer les données en donnant une importance plus importante au passé proche qu’au passé lointain. Le lissage exponentiel de la chronique y(t) est définie par


[math]y'(t)= \alpha \displaystyle \sum_{i = 0}^{\infty} (1- \alpha)^i y(t-i)[/math]


C’est en quelque sorte une moyenne avec des poids variables. En effet, la somme des coefficients vaut 1 puisque :


[math]\displaystyle \sum_{i = 0}^{\infty} (1- \alpha)^i = \displaystyle \frac {1}{ \alpha}[/math]



Plutôt que de mémoriser l’historique complet, on remarque que


[math]y'(t)= \alpha \displaystyle \sum_{i = 0}^{\infty} (1-\alpha)^i y(t-i)=\alpha y(t)+ \displaystyle \sum_{i=1}^{\infty}(1- \alpha)^i y(t-i)[/math]



En sortant le terme en i=0, puis en changeant de variable (j=i-1)


[math]y'(t)= \alpha y(t)+(1- \alpha) \alpha \displaystyle \sum_{i=1}^{\infty} (1- \alpha)^{i-1}y \left( t-1-(i-1) \right) = \alpha y(t)+(1- \alpha) \alpha \displaystyle \sum_{j=0}^{\infty}(1- \alpha)^{j}y \left( t-1-j \right) [/math]


donc
[math]y'(t)= \alpha *y(t)+(1-\alpha)*y'(t-1)[/math]


Le lissage prenant en compte l’historique au complet peut donc être calculé en n’utilisant que deux valeurs, la valeur observée courante de la chronique et la valeur lissée à la période précédente.


Prévision :

Si le modèle sous-jacent est un modèle constant (sans tendance), alors la prévision pour [math] \hat {Y}(t+i)[/math] est Y'(t).

Si le modèle sous-jacent est un modèle avec tendance, alors il faut utiliser le lissage d’ordre deux. En effet, le lissage simple induit un retard de [math]\displaystyle \frac {1- \alpha}{\alpha} [/math]

Voir la fiche technique Prévisions dans la section des fiches techniques.

Le lissage exponentiel d’ordre 2 est noté y’’(t). Il se défini comme le lissage du lissage.


[math]y''(t)= \alpha \displaystyle \sum_{i=0}^{\infty}(1- \alpha)^i y'(i-t)[/math]



Comme pour le lissage d’ordre 1, on remarque que


[math]y''(t)= \alpha y'(t) + (1- \alpha) y''(t)(t-1)[/math]



Avec ce lissage double, il est possible d’effectuer plus de prévisions



Prévision :

Si le modèle est un modèle avec tendance, alors en prenant comme la prévision pour [math]\hat {Y}(t+i)[/math] est

[math]\hat {Y}(t+i)=a(i)+b[/math]


Où [math] a= \displaystyle \frac {\alpha}{1- \alpha} \left( y'(t) - y''(t) \right )[/math] et [math]b=2y'(t) - y'' (t) [/math]

Voir la fiche technique Prévisions dans la section des fiches techniques.

On peut aussi utiliser les écarts entre deux lissage consécutif comme estimateur de a.
Voir aussi pour les prévisions l'exemple dans le fiche technique Exemple de prévision avec le lissage exponentiel

Exemple :

Dans le fichier previsions-lissageexponentiel.xlsx
il y a deux feuilles. Considérons la feuille prévision avec lissage simple.

Partie 1

Le principe de le feuille est de générer aléatoirement une chronique y(t) pour t=1 à t=83. Cette chronique est générée suivant la loi suivante : Y(t)=base+pente+bruit.

En jouant sur les coefficients de la pente ou du bruit, on génère une chronique plus ou moins régulière.

Les colonnes y’(t) et y’’(t) donnent les lissages d’ordre 1 et 2 de la chronique. Les valeurs initiales (pour t=1) sont prise par défaut à y’(1)=y’’(1)=y(1). Évidement, cela ne permet pas de connaitre le passé, mais l’équation mathématique [math] \displaystyle \sum_{i=0}^ \infty \alpha (1- \alpha)^i y(t-i) [/math] n’a pas de sens dans le monde réel, aucune chronique ne comment à [math]- \infty [/math].

Les colonnes a et b donnent les coefficients de la pente tel qu’ils sont calculables à chaque instant.

Par exemple, pour la date t=22, en connaissant seulement les y(t) de 1 à 22, le coefficient calculé est dans la cellule (E26). Le b calculé est dans la cellule (E27). Avec ces deux coefficients, le responsable peut prédire la valeur [math] \hat {y}(23) [/math] qui est dans la cellule (G27).

La colonne H donne les écarts entre cette prévision (faisant l’hypothèse que la chronique suit une tendance) et la réalité. La colonne I, quant à elle, donne l’écart entre le lissage fait en semaine t-1 et la valeur observée en t : c’est donc l’écart entre prévision et observation si on utilise pour la chronique un modèle sans tendance donc [math]\hat {y}(t)=y’(t-1)[/math].

La colonne J représente la prévision qu’on pourrait faire en date de la semaine 52, pour les semaines de 53 à 83. Il faut comprendre qu’évidement, lorsque cette prévision est faite, les valeurs y(t) pour t=53 à 83 sont inconnus.

Question

Faites varier le coefficient alpha de 0.01 à 0.3 et observez ce qui se passe. Pourquoi ces variations?

Faites varier le coefficient de la pente et interpréter.

Partie 2

Regarder la feuille «prevision avec lissage complexe ». Le générateur de chronique est plus complexe, et le phénomène sous jacent est une courbe avec tendance, mais dont la tendance évolue légèrement (sinusoïde) en fonction du temps.

La courbe bleu est la chronique, la rouge est la prévision en utilisant le modèle avec tendance, la verte en utilisant le modèle sans tendance. La courbe verte accuse donc un retard de [math] \displaystyle \frac {(1- \alpha)}{ \alpha} [/math] sur la chronique. Soit si alpha=0.1, un retard de 9 périodes.

1 http://fr.wikipedia.org/wiki/Pr%C3%A9vision_%C3%A9conomique
2 http://en.wikipedia.org/wiki/Focus_group
3 Le coefficient R2 mesure la part de la variance totale de la chronique par la variance de l’approximation, autrement dit c’est la (variance du modèle)/(variance de X(t)). Proche de 1, le modèle explique bien les données.



Saisonnalité

Beaucoup de chroniques étudiées en gestion des opérations sont saisonnières. Les saisonnalités peuvent provenir :
  • Du mois de l’année car les ventes sont associées au climat (motoneige, ski, produit de jardin, service lié aux périodes de congé, etc.)
  • De la période de l’année pour des raisons calendaires (fête du calendrier, lien avec des rentrées universitaire ou scolaire, liés à des autorisations de pêche ou de chasse, etc…)
  • De la période du mois (disponibilités financières liées au versement des salaires dans des pays ou les salaires sont mensuels, disponibilités liées aux fin de semaines, etc.)

Si on dispose d’une série chronologique X(t) et qu’on suspecte une saisonnalité, on peut confirmer l’impression avec un graphique superposé ou un corrélogramme.

Graphique superposé :

Le graphique superposé consiste tout simplement, lorsque l'on suspecte une saisonnalité de période T dans une chronique X(t), à représenter les différentes courbes : [math] \displaystyle Y_i = \left(X_{i*T+j}\right)_{j=1..T} [/math] pour les [math]i [/math] pour lesquels c'est définie, allant de 0 à [math] n/T[/math] si n est le nombre d'éléments de la chronique. Autrement dit, une courbe par période, toutes supperposées. Si le phénomène est effectivement saisonnier, les courbes ont toutes la même allure.
LE graphique des coefficients de corrélation donne tout simplement pour un j donné, le coefficient de corrélation entre la chronique [math] \left(X_i\right)_{i=1..n-j}[/math] et la chronique décalée de j, soit [math] \left(X_i\right)_{i=j..n}[/math]. Si la chronique est de périodicité T, le corrélogramme doit atteindre un maximum proche de 1 pour [math] j=T
[/math]

Exemple : A COMPLETER

Une fois la saisonnalité identifiée, deux modèles sont possibles : additif ou multiplicatif.

  • Additif : X(t)=f(t)+Cs(t)+e(t)
  • Multiplicatif : X(t)=f(t)*Cs(t)+e(t)

Où f(t) est le modèle sous jacent (constant ou avec une tendance) et e(t) l’erreur.

L’évaluation des coefficients de saisonnalité se fait le plus souvent par une moyenne des coefficients passés, ramené à la moyenne [math] \overline {X(t)} de la chronique.

  • Additif : moyenne des [math] X(t + i \times T) - \overline {X(t + i \times T)} [/math] disponibles
  • Multiplicatif : moyenne des [math] \displaystyle \frac {X(t+i \times T)} {\overline {X(t + i \times T)}} [/math] disponibles

La moyenne [math] \overline {(X(t)} [/math] étant calculée de la manière suivante :

  • Si la saisonnalité est un nombre impair «T» de période :

    [math] \overline {X(t)} = \displaystyle \frac {1}{T} \sum_{ \frac {-(T-1)}{2}}^{ \frac {T-1}{2}} X(t+i) [/math]

  • Si la saisonnalité est un nombre pair «T» de période :

    [math] \overline {X(t)} = \displaystyle \frac {1}{T-1} \sum_{ \frac {-T}{2} -1}^{ \frac {T}{2} -1} X(t+i) + \frac 12 \left( X(t+ \frac T2) + X(t- \frac T2) \right) [/math]

Exemple : A COMPLETER

1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
janvier 72 18 23 20 33 11 40 70 15 25 23 33 17 49 77 12 26 24 30 17 42 70 15 20 28 30 19 45 78 16 20
février 25 37 16 41 75 15 20 29 37 14 48 71 15 26 26 32 17 47 74 12 24 24 33 10 46 71 12 26 25
mars 36 10 40 79 16 23 21 36 17 48 77 18 21 28 36 16 43 74 12 24 20 36 15 46 77 17 28 21 33 13 48
avril 72 11 24 28 37 11 42 72 19 20 21 37 11 46

Pour prévoir avec une chronique ayant une composante saisonnière, on procède le plus souvent de la manière suivante :

  • Désaisonnaliser la chronique
  • Effectuer une prévision sur la chronique désaisonnalisée, soit avec un modèle constant, soit avec un modèle avec tendance
  • Resaisonnaliser la prévision.

Les coefficients de saisonnalité peuvent être calculés une fois pour toute ou recalculés à chaque prévision.

Exemple : A COMPLETER

____________

1 http://fr.wikipedia.org/wiki/Pr%C3%A9vision_%C3%A9conomique
2 http://en.wikipedia.org/wiki/Focus_group
3 Le coefficient R2 mesure la part de la variance totale de la chronique par la variance de l’approximation, autrement dit c’est la (variance du modèle)/(variance de X(t)). Proche de 1, le modèle explique bien les données.



Le lancement en production


Au-delà de la planification, il faut mettre en production. Pour cela, les deux grandes approches sont le flux tiré et le flux poussé.

  • Dans le flux poussé, les ordres lancés en production sont destiné à un besoin identifié dans le futur.
  • Dans le flux tiré, les ordres lancés en production le sont pour combler une consommation.

Le choix dépendra beaucoup du contexte, et en particulier du fait que l'entreprise est en Make to stock, Make to order ou engineer to order

Flux poussé versus flux tiré

Passé la planification, il faut aller à la production elle-même. Le lien entre planification et production n’est pas aisé. Deux grands principes s’opposent : le flux poussé (par le plan) et le flux tiré (par le besoin).



En flux poussé, le plan prévisionnel est utilisé comme outil de mise en fabrication : on met donc en fabrication ce que l’on a prévu de faire, indépendamment du fait que les destinataires des produits planifiés soient à même de les utiliser. LE PLAN POUSSE LA FABRICATION.

En flux poussé, on peut théoriquement arriver à un niveau zéro de stock. Il suffit pour cela que le système soit parfait, et que le plan fasse en sorte que la quantité exacte de produits nécessaires arrive à son destinataire au moment exact ou il en a besoin. Le problème est que les quantités mises en fabrication dans le plan servent à couvrir plusieurs besoins différents : donc le flux poussé engendre souvent beaucoup de stock. D’autre part, même si le destinataire n’est pas en état de consommer les produits qui lui ont été envoyés, le système continuera à l’approvisionner si le plan l’a prévu.

En flux tiré, c’est la consommation d’un produit temporairement stocké qui déclenche son réapprovisionnement. Le flux tiré est donc une méthode qui ne fonctionne qu’avec un niveau minimal de stock. En flux tiré, le rôle de la planification n’est pas de déterminer ce qui sera effectivement produit, mais plutôt de déterminer les ressources à mettre en place pour être capable de produire ce que l’on planifie d’avoir à produire.

En flux tiré, le stock maximum est défini une fois pour toute et le système ne peut techniquement pas dépasser le niveau maximum prévu, quoiqu’il arrive.

Analogie

On peut prendre comme analogie le remplissage du réfrigérateur en fin de semaine dans une grande famille. On ne s’intéresse qu’aux produits de consommation courants, gérés « sur stock ». On exclut les produits périssables gérés « à la commande ».

La planification stratégique permettra de dimensionner le réfrigérateur, le congélateur et le placard de conserve en fonction de la taille de la famille, de la voiture, etc.

La planification tactique permettra, une fois par mois, de planifier le budget pour chaque repas du mois. Une des manières de faire, c’est de planifier chacun des repas, d’en déduire repas par repas les quantités de chaque produits « gérés sur stock » nécessaires. Sachant le stock initial (il suffit d’ouvrir le réfrigérateur, congélateur et placards) et la taille des lots (si les bouteilles d’huile font 2 litres, on en achète que lorsque la bouteille est vide), on peut calculer semaine par semaine les quantités de produits à acheter.



La gestion scientifique des stocks est l’ensemble des techniques et outils permettant de calculer quand et combien approvisionner (fabriquer ou acheter, selon les cas) lorsque les demandes individuelles ne sont pas anticipées (demande indépendante).

Globalement, on distingue deux grandes familles de problèmes :

  • Produits périssables, modèle mono-période : on doit approvisionner ou fabriquer un ensemble de produits pour une période donnée, sachant qu’il n’y aura pas de possibilité de réapprovisionnement (risque de manquer) et que les invendus sur la période seront perdus (risque de perte).
  • Produits non périssables, modèle multi-périodes. Les produits non consommés sur la période seront réutilisés sur la période suivante.

Les produits périssables concernent les produits alimentaires frais, les produits liés à des modes (habillement), à l’information (journaux, livres), à des dates de péremption (médicaments, produits alimentaires).

Les autres produits sont essentiellement des produits manufacturés, qui ont une durée de vie supérieure à la fréquence habituelle des réapprovisionnements (électroménager, composants mécaniques, matières premières, etc.).

Les différents types de "déclencheur" de la production

Qu'est ce qui déclenche la production de produits finis dans une entreprise ?
Trois types de demande peuvent déclencher une production dans une entreprise :
Make to stock : la fabrication alimente un inventaire. C’est du flux tiré. Le client vient "piocher" dans le stock et on relance la fabrication lorsque le niveau d’un produit est sous un seuil donné. La planification (prévision commerciale, etc.) a deux objectifs : d'une part déterminer le "niveau de ressources" qui semble nécessaire pour satisfaire la demande anticipée, et d'autre part, déterminer les seuils de réapprovisionnement et les quantités à approvisionner pour chaque produit.
Make to order : on décide de fabriquer un produit fini donné lorsqu'on dispose d'une commande ferme. Le client va donc devoir attendre que sa commande soit faite pour recevoir son produit. Dans ce cas, la planification a deux objectifs : d'une part déterminer le "niveau - quantité- des ressources" qui semble nécessaire pour satisfaire la demande anticipée, et d'autre part, répondre au client quand on pourra lui livrer les produits commandés.
Make to forecast : fabrication sur prévisions. On effectue des prévisions et ce sont ces prévisions elles-mêmes qui sont mises en fabrication. La planification sert évidemment à faire les prévisions, et lorsque les produits sont faits, les clients viennent "piocher" dans les produits faits. Si les prévisions sont bonnes les clients doivent trouver un produits quand ils le veulent, et les produits doivent trouver des clients. Si les prévisions sont moins bonnes, on aura des surplus ou des manques (backoders).

Pour comprendre les différentes méthodes de mise en production, il faut insister sur deux délais importants :

Le délai de production : C’est la durée qu’il y a entre la décision de produire et la sortie du produit, incluant l’approvisionnement des matières premières (composants approvisionnés).

Le délai du marché : C’est la durée que le client est prêt à attendre pour avoir son produit.

Les méthodes de lancement en production vont beaucoup dépendre de ces délais et de leur comparaison. Notons tout d’abord que ces délais peuvent être très différents. Dans l’aéronautique, il est fréquent que le délai du marché soit de plusieurs années. On « réserve » ainsi des tranches de disponibilité des lignes d’assemblage. Dans d’autres fabrications, comme par exemple des câbles électriques, des produits chimiques de base, on s’attend à ce que le produit soit disponible immédiatement.

Si le délai de production est inférieur au délai du marché, toutes les politiques seront possibles. En revanche, si le délai de production est supérieur au délai du marché, alors le client refuse d’attendre le produit. Il faut anticiper tout ou une partie de la production.

En fait, aucune entreprise n’est complètement en flux tiré ou en flux poussé. Les entreprises se positionnent par rapport au délai commercial.

Globalement, les entreprises fonctionnent sous quatre modes différents. Ces modes de fonctionnement ne sont pas exclusifs et peuvent cohabiter.

Make to forecast

Make to forecast, l’époque de MRP

Dans le make to forecast, ce sont les résultats de planification (anticipation des demandes) qui seront mises en fabrication. Typiquement, on utilise des méthodes de type MRP pour déterminer les ordres de fabrication et ainsi produire ce que l’on a prévu de vendre. Le logiciel de type MRP lissera les charges et produira ce qui est nécessaire, tout en respectant les capacités.

Si les prévisions sont bonnes, on fabriquera exactement ce qui est demandé, sinon on aura un stock temporaire.

Théoriquement, le stock doit être beaucoup plus faible qu’avec une gestion « Make to stock », et il faut faire le lien entre la demande réelle du client et la production sur prévision. Ceci est fait par un mécanisme simple, le « available to promise ». Les demandes réelles sont enregistrées, et en quelque sorte on « réserve » les productions en cours ou futur pour les clients. Les clients peuvent alors « réserver » des productions soit au plus tôt soit pour une période déterminée.

Make to order

Make to order

Dans le make to order, on ne fabrique que lorsqu’on a une demande. Donc le client va devoir attendre tout le délai de production avant de recevoir son produit. On réserve donc ce type de production aux cas ou le délai du marché est supérieur au délai de production. Lorsque c'est possible, c'est évidement le type de production recherché puisqu'il entraine beaucoup moins de coût d'inventaire.

Le make to order est donc une méthode de flux poussé puique l'on ne fabrique que lorsque l'on a une demande réelle.

Make to stock

Make to stock, seconde génération

On utilise une méthode de flux tiré et on fabrique exactement ce qui est consommé. C’est la consommation de stock qui déclenche son réapprovisionnement. Si le flux tiré est très répandu dans la distribution, il l’est un peu moins dans la production, du fait de l’imprévisibilité des demandes de production.

Dans le make to stock, les besoins sont servis au fur et à mesure de leur arrivé, et le délai d’attente est nul, sauf en cas de rupture. C’est une méthode très dynamique. Elle sera en particulier utilisée lorsque le délai du marché est nul.
En fait, on ne peut jamais garantir à 100% que le délai d’attente sera nul, car la demande peut varier considérablement. On utilise toujours un taux de service. Pour cela, il faut un modèle de la demande.

S’il y a un seul produit, le make to stock diffère de la production continue par le fait que c’est la production qui est assujettie aux ventes, et pas le contraire.

Lorsque la production est flexible (plusieurs produits finis différents), alors le make to stock avec de toutes petites quantités en stock devrait être une bonne solution. Malheureusement, il se pose plusieurs problèmes :

  • Comme il y a toujours un délais de réapprovisionnement (production, livraison, etc...), il faut impérativement disposer d'un STOCK de SÉCURITÉ pour couvrir les besoins des clients pendant le réapprovisionnement,
  • Comme il y a souvent des coûts de réglage pour fabriquer un produit, il y a un coût fixe et un coût variable (fonction de la quantité). Pour amortir le coût variable, il faut forcément fabriquer ou approvisionner suffisemment de produits....
  • la gestion sur stock ne permet pas de lisser les charges : toutes les demandes peuvent arriver simultanément (si tous les stocks sont bas en même temps) et l’accès aux ressources est saturé. Pour pallier cet inconvénient, on doit encore utiliser des stocks de sécurité qui alourdissent les coûts de fonctionnement.

Pour pallier le problème de la synchronisation, la solution consiste à planifier les besoins et à anticiper les productions pour lisser la charge : le make to forecast.


Méthodes mixtes


Méthodes mixte


Même au sein d'une entreprise, les méthodes de gestion cohabitent souvent. Typiquement :
  • On utilise du flux tiré (gestion de stock) pour les matières premières, si elles rentrent dans la composition de plusieurs produits fabriqués différents.
  • On utilise une fabrication sur prévision pour les composants (souvent de type MRP).
  • Les prévisions sont d'ailleurs souvent établies à partir de prévisions sur les produits finis. Le délais de fabrication des composants est souvent incompatible avec le délais du marché (le client ne peut pas attendre que l'on fabrique les composants et que l'on réalise l'assemblage final) mais il y a trop de diversité pour pouvoir réelement travailler sur stock.

  • si certains composants sont très utilisés (consommation régulière), on va les gérer avec des méthodes de type flux tiré pour éviter de crouler sous une masse de prévisions.
  • On fait l'assemblage final en make to order, de telle sorte que l'on ne fabrique que les produits finis réelement vendus.

Évidemment, la frontière dépend des entreprises. Pour améliorer le système de gestion des fabrication, on dispose de plusieurs méthodes très simples:

  • La standardisation des composants (différentiation retardée).
  • Moins on a de composants gérés sur prévisions, plus les prévisions sont faciles. On va donc chercher à faire de la "réingéniérie" des produits pour que la différenciation entre les produits finis se fasse le plus tard possible dans le procédé de fabrication. On pourra ainsi gérer sur prévisions (ou en flux tiré) un petit nombre de composants, et gérer en make to order les produits finis.
  • Diminution du délais de production.
  • En diminuant le délais de production, on peut fabriquer plus d'étapes en make to order et donc diminuer les incertitudes liées aux prévisions.

fabrication continue


Fabrication continue, première époque

La plus ancienne des organisations, marquant le début de la production de masse. C’est ainsi que fonctionnait les premières lignes automobile : c’est la ligne de production (le système de production en général) qui est le goulot d’étranglement du système, donc elle fonctionne au mieux de ses possibilités, les ventes suivront. On est dans le principe de base du flux poussé. La demande n’intervient pas.

On trouve aujourd’hui ce type de production dans les procédés continus, à forte inertie. Par exemple, les lignes de production de verre, les cimenteries, les aciéries, la foresterie (sciage des grumes), etc. Le procédé étant difficile à arrêter ou à repartir, on ne l’arrête pas et on produit, sans limite. Lorsque la production est « flexible », c'est-à-dire que le même outil de production va produire plusieurs produits, la question est alors de savoir quoi produire, mais on produit toujours.

Ce procédé de fabrication est aussi utilisé dans les cas ou l’on préfère avoir de l’activité et remplir les inventaires plutôt que d’ajuster la capacité à la demande, comme le montre la figure ci-dessous. Dans l’industrie automobile, cela se solde souvent par des productions massives de voitures invendues.

Cette approche est donc intimement liée à la Mass Production.


Source: http://www3.pictures.gi.zimbio.com


Exemple de familles d'industrie


Bien évidement, chaque entreprise a ses propres règles de fonctionnement. Cependant, pour chaque type de produit, on retrouve pratiquement la même organisation entre flux poussé et flux tiré dasn toutes les entreprises. En effet, les choix se font essentiellement en fonction de la nature du marché, de la nature de l'offre et de l'organisation de la logistique globale.


Cas de l'automobile



L'automobile est le produits engendrant la plus grosse industrie manufacturière. Globalement (historiquement) la production s'organisait comme suit :

voiture
Figure 1 : L'automobile

Les lignes d'assemblage fonctionnait en continu (avec un mixte de produit déterminé par des prévisions commerciales) et alimentait un réseau de distributeurs. La nature même des lignes de production (lignes avec un tack time fixe, ne s'adaptant pas réellement aux fluctuations de la demande) faisait que la production était poussé dans le réseau.

Depuis plusieurs années, les entreprises automobile ont commencé à diversifier leur production en offrant des options, des choix de couleurs ou de motorisation, etc...
De nombreux constructeurs ont alors géré la ligne d'assemblage à la commande, à l'instar des lignes de la SMART par exemple. Souvent, jusqu'au ferrage (fabrication des chassis) et à la peinture, les lignes sont gérés sur prévision. Mais ensuite, l'enlignement donne la séquence exacte des produits en fonction des demandes exacte des clients.

voiture
Figure 2 : L'automobile en make to order

Notons que souvent, le réseau de distribution offre une alternative au client avec le choix entre des produits sur stock (stockés dans le réseau de distribution, avec un délais de livraison nul ou faible) ou des produits sur commande, avec un délais plus grand. Le make-to-order contient donc des commandes clients et des commandes de réapprovisionnement du réseau.
Dans ce type de production, les meilleurs (SMART par exemple) vont essayer de se faire livrer des fournisseurs les composants dans l'ordre ou ils seront utilisés. On parle d'approvisionnement synchrone. Voir par exemple dans http://chohmann.free.fr/lean/flux_synchrones.htm.

Finalement, un troisième mode de fonctionnement intermédiaire consiste `faire une planification commerciales de toutes les diversités possibles, en s'assurant de couvrir toute l'étendu de la gamme. Ensuite, le client peut soit choisir dans les produits en inventaire, soit choisir un des produits "en ligne" non encore fabriqué, qu'il se "réserve". Dans ce cas, le délais client est plus faible (le produit est déjà en fabrication) mais le choix est aussi plus faible (seulement les produits déjà lancés et non encore choisis.

voiture
Figure 3 : L'automobile avec réservation


Cas des ordinateurs



L'ordinateur est un produit standard. Le plus souvent, des ordinateurs "types" sont fabriqués en grandes séries, à partir de prévisions commerciales, et poussés vers les réseaux de distribution. Quelque fois, le réseau de distribition (entre la production et le client) fonctionne en flux tiré. Les distributeurs ont des stocks et se réapprovisionnent en flux tiré, au fur et à mesure de la consommation des produits.

ordinateurs
Figure 1 : Le cas de l'ordinateur traditionnel

L'ordinateur est un produit standard, mais typiquement modulaire. Chaque client peut vouloir un "modèle" spécifique, pas assemblage d'un disque spécial, d'une carte graphique particulière, d'un type de lecteur DVD particulier, etc... Le plus souvent, c'est le réseau de distribution qui va "customiser" le produit en modifiant telle ou telle option à partir d'un stock de composants.

Le cas de Dell


Dans le cas de Dell, l'assemblage final est exclusivement en "make to order". Le principe est le suivant :
organisation DELL
Figure 2 : Le cas de DELL

Le client va commander directement son modèle, à l'aide d'un configurateur (il va créer son propre ordinateur en utilisant un logiciel de configuration qui lui permet de sélectionner ses options et faire ses choix entre équipements). Ensuite, l'usine d'assemblage va fabriquer le produit et l'expédier.
Fonctionner de la sorte suppose:
  • Aucune rupture de composants, ils doivent tous être gérés sur stock ou sur prévision, mais sans aucune rupture de stock
  • Une production très rapide, avec peu de délais de production
  • Une logistique parfaite pour garantir un délais livraison raisonable

La production finale ne peut pas se faire en Asie, elle doit être faite suffisemment prêt des clients pour pouvoir réaliser les acheminement rapidement.
Les coûts logistiques (Expedition de type colis expresss) sont importants, et ce type de production ne peut donc se faire que pour des produits dont le prix est suffisemment élevé avec un encombrement suffisemment faible.
Finalement, les coûts logistiques peuvent être plus importants, car la société économise tout son système de distribution.

Cas le l'électronique de petite taille



L'électronique de petite taille inclut les téléphones, baladeur et autre blackberry, ipod, etc... Il s'agit de produits de très grandes consommation, avec peu de modèles, chacun vendu en très grande quantité, avec des coûts de transport faible (faible encombrement).
Ces produits fabriqués d'un bout à l'autre de la chaîne logistique en flux continu ou poussé, sur prévisions commerciales.
Le cas de l'électronique de petite taille
Figure 1 : Le cas de l'électronique de petite taille

Les composants élémentaires, les chips en particuliers sont fabriqués par des entreprises de production de wafer de très grande capacité, en production peu diversifiée, souvent en flux pratiquement continu (http://en.wikipedia.org/wiki/Semiconductor_device_fabrication).
Les composants, circuits, écrans, etc. et les produits eux mêmes sont fabriqués en flux poussé, sur prévisions commerciales. En effet, il n'y a pratiquement aucune personalisation des produits. Ce sont des produits standards, fabriqués en un seul exemplaire pour la planète entière.


Tenu des stocks

Les stocks sont souvent considérés comme une plaie dans notre société ou le juste-à-temps est passé dans les mœurs. Ils restent souvent un mal partiellement nécessaire. On trouve des stocks tout au long de la chaîne d’approvisionnement. Ils demandent d’être suivis pour savoir quand et comment les réapprovisionner. Finalement, leur niveau est souvent considéré comme un bon indicateur de la santé d’une entreprise.

Où sont les stocks

Il existe plusieurs types de stock ou inventaire dans la chaîne de production d’un produit :



1) Stock de matière première
2) Stock intermédiaire en fabrication
3) Stock de produit fini
4) Stock de distribution
5) Stock en point de vente

Le produit fini des uns est la matière première des autres. Par exemple, un fabricant de bouteilles de bière approvisionnera avec ses produits finis une brasserie pour laquelle il s’agira de matière première.

Les entreprises primaires (fonderie, scierie, aciérie, raffinerie, cimenterie, entreprise de process) ont souvent une gestion en flux continu qui n’utilise pas les méthodes classiques de gestion de stock.

Les liens de type 3-1 sont souvent désastreux pour les coûts. En effet, le fournisseur stock des produits pour répondre rapidement aux demandes de ses clients. Ceux-ci stockent aussi des produits pour pallier des délais trop importants du fournisseur. On a donc un dédoublement des services de sécurité avec une augmentation importante des coûts. Pour éviter cela, on peut utiliser des stocks de consignations.

La distribution des produits vers le client final se fait souvent via un réseau de distribution qui utilise des entrepôts (les stocks de type 4 et 4’). Il se peut qu’il y ait plusieurs entrepôts successifs : on parle de chaine logistique de distribution à plusieurs échelons. Par exemple, un grand constructeur de matériel électronique peut fabriquer en Asie (Chine et Taiwan par exemple) et gérer un niveau d’entrepôts principaux par continent, puis un entrepôt secondaire par pays. Cela n’empêchera pas les détaillants d’avoir leur propre inventaire (niveau 5) proche des clients.

Suivi des stocks

Avant de gérer les stocks, il faut mettre en place des systèmes informatisés ou non pour connaître le niveau d’inventaire. On distingue 3 types de systèmes permettant de connaître le niveau d’un stock :

  • Systèmes visuels
  • Systèmes papier
  • Systèmes informatiques

Dans le système visuel, les contenants (caisses, boites, emplacements, etc.) sont spécifiques à un type de produit, et du premier coût d’œil, on peut savoir où on en est.



Dans ces deux cas, les produits sont théoriquement consommés caisse par caisse ou boite par boite, et il est très facile de voir la quantité restante. Les avantages de ces systèmes sont un très faible coût d’opération et une information disponible immédiatement par simple regard. Les inconvénients sont une mesure approximative (à la caisse près), une information non disponible à distance (il faut voir pour savoir) et un encombrement physique égal au stock maximal (il n’y a aucune mutualisation d’emplacement).

La tenue des stocks sur papier ou sur informatique demande de saisir toutes les informations d’entrée ou sortie de stock. Cela demande donc un mécanisme physique pour que seules les personnes autorisées à réaliser ces transactions soient autorisées à toucher au stock. On parle donc d’une barrière physique (entrepôts fermés) et de procédures pour éviter les erreurs. Évidement, ces saisies ont un coût.

On dispose cependant d’outils très efficaces pour baisser les coûts, en particulier les pistolets à lecture de codes à barre liés à des ordinateurs mobiles pour autre informatique mobile.



Le mécanisme d’entrée en stock se fait avec un ordinateur mobile, couplé à un pistolet de lecture.

Exemples

http://www.codesbarres.com/
http://www.contrinfor.com/Codebarre.htm
http://www.motorola.com/Business/FR-FR/Business+Product+and+Services/Bar...

De plus en plus, on parle d’utiliser les puces RFID pour mettre à jour automatiquement tous les inventaires en fonction des entrées sorties identifiées.

Lorsque les produits arrivent par lot, il peut être important d’assurer la sortie des stocks en FIFO et l’identification du numéro de lot pour plusieurs raison :

  • Assurer que tous les produits d’un lot soient fabriqués avec des composants eux-mêmes issus d’un même lot, et assurer par là une certaine homogénéité,
  • Assurer la traçabilité et pouvoir remonter ultérieurement d’un défaut observé à tous les produits réalisés avec le même lot de composant,
  • Assurer la consommation régulière et donc éviter le vieillissement des produits


Inventaires

La tenue de stock sur papier ou informatique pose le problème de la cohérence entre l’information mémorisée et la réalité de l’inventaire. Cette cohérence est assurée de manière continue par le suivi et le contrôle des entrées/sorties en stock, et de manière calendaire par les inventaires.

Méthodes d'approvisionnement en flux tirés

Les méthodes de gestion en flux tiré sont donc essentiellement la gestion scientifique des stocks et le Kanban. D’autres méthodes comme le Conwip permettent de faire un pont entre le flux tiré et le flux poussé.

Le responsable d’un stock ou inventaire doit répondre à trois questions :

1) Quoi approvisionner

2) Quand approvisionner (noté T)
3) Combien approvisionner (noté Q)

Lorsqu’on utilise la gestion scientifique des stocks, ces décisions relèvent d’une décision de gestion. Elles sont prises par un planificateur, sur la base de données gérées sur papier ou sur ordinateur. Dans le cas d’une gestion KANBAN, ces décisions sont prises par des personnes de production. Ce sont des décisions opérationnelles, prises à partir d’informations visuelles.

Gestion scientifique des stocks

La gestion scientifique des stocks comporte 3 grandes étapes :

  • Identification du problème et recherche du modèle,
  • Calcul des paramètres optimaux du modèle,
  • Application d’une politique de gestion.



Figure 1


La première étape consiste à identifier la nature du problème et les coûts mis en jeu. Le problème peut être mono ou multi période(s). On parle de multi-périodes lorsque le produit acquis lors d’une période est réutilisable durant la période suivante (stockage de meubles par exemple). On parle de mono période lorsque le produit acheté ne peut servir que dans une seule période (articles promotionnels, produits frais, journaux, produits de mode, etc.). Si la demande est suffisamment stable, on parlera de problème cyclique (et on cherchera une valeur de Q unique, qui sera commandée chaque fois). Si au contraire la demande est variable dans le temps, on aura à chercher un ensemble de Qi. Les contraintes portent sur les modes d’approvisionnement, l’entreposage, les liquidités, le couplage entre produits, etc. Les coûts seront de deux types : les coûts d’acquisition (liés à la passation de la commande) et les coûts d’entreposage.

L’optimisation du modèle est la phase la plus simple. Il s’agit d’appliquer les méthodes mathématiques classiques pour trouver dans le modèle la ou les valeurs de Q qui optimisent les gains (minimisent les coûts).

Finalement, il faut adapter le modèle à la réalité car les hypothèses ne sont jamais totalement respectées. Il existe deux grandes familles de politique de gestion.

  • Politique par Quantité économique ou point de commande: on conserve la (ou les) quantités Q* calculées à l’étape 2, et on adapte les dates de commande pour tenir compte des variations de la demande par rapport aux hypothèses (méthode Q,s),
  • Politique périodique : on conserve la période de commande T, mais on adapte les quantités approvisionnées en fonction des consommations réelles (méthode T,s)

Les coûts en jeu

La gestion des stocks consiste à minimiser les coûts liés à la gestion et la tenue des stocks. On distingue habituellement les coûts suivants :

  • Coûts de passation de commande1
  • Coût de possession du stock,
  • Coût de rupture

Selon les cas, ces coûts sont pertinents ou pas. Lorsqu’on cherche la meilleure politique de gestion de stock, on cherchera à isoler les coûts dits différentiels. Un coût est dit différentiel s’il varie en fonction de la politique choisie. Les coûts qui ne varient pas en fonction de la quantité approvisionnée sont non différentiels et peuvent être négligés.

Coût de passation de commande

Les coûts de passation de commande sont les coûts encourus lorsqu’une demande de réapprovisionnement est effectuée. On distingue :

  • Coût d’achat des biens,
  • Coût de transport,
  • Coût de gestion de la commande,
  • Coût de réception de la commande
  • Coût de réglage

Le coût d’achat est un coût différentiel seulement si le prix d’achat est fonction de la quantité achetée. S’il y a des remises sur quantité, ce coût doit être considéré, car il sera différentiel. Il faudra alors connaitre le modèle C=f(Q) appliqué par le fournisseur.

Le coût de transport est souvent directement lié au volume ou au poids transporté. Dans ce cas, il n’est pas différentiel, car quelles que soient les quantités Q approvisionnées, à la fin de l’année on aura transporté la quantité total utilisée, qui ne dépend pas du nombre de transports faits. En revanche, si le transport possède une partie fixe et une partie variable, ou si les coûts de transport varient suivant des plages de poids, alors ces coûts seront différentiels. La question est donc de savoir si à la fin de l'année, les coûts de transport seront les mêmes quelque soit la quantité utilisée pour réapprovisionner.

REMARQUE: dans certain cas, les coûts de transport varient en fonction de leur caractère prévisible ou non. En cas de réapprovisionnement à date fixe, le fournisseur peut établir ses tournées et donc consentir à des rabais. Dans ce cas, on doit choisir entre une politique de réapprovisionnement périodique (Politique en T) avec un coût de transport donné, et une politique de réapprovisionnement en quantité fixe (Q*) avec un autre coût. Pour chacune des deux politique, le coût de transport est donc non différentiel (et peut être oublié) mais il doit être réintroduit lorsque l'on compare les deux politiques.

Il y a un coût de gestion de commande parce que toute transaction dans une entreprise coûte. Il faut faire des écritures, faire un suivi, émettre des bordereaux, une facture, un paiement, etc. Ces coûts de gestion sont dépendants du nombre de transactions faites, et donc ils sont toujours différentiels. Si on commande une quantité Q de produits qui couvre une année de production, on encourt un seul coût de commande, alors que si on commande mensuellement, on aura 12 coûts de commande.

La réception de la commande induit souvent un coût de réception. Souvent un coût de contrôle. Selon la politique de contrôle appliquée, le cout de contrôle peut être différentiel ou non.

Le coût de réglage est un coût différentiel qui ne concerne que les produits gérés sur stock, mais fabriqués par la compagnie. Il correspond en fait au coût de gestion pour une production fabriquée: comme ce dernier, il est encouru à chaque fois qu'une machine est réglée, donc à chaque réapprovisionnement, mais il est indépendant de la quantité. Voir pour cela la fiche technique correspondante
Le coût de réglage est généralement calculé comme la somme des coûts d'immobilisation de la machine (durée*taux horaire) et du coût de personnel.

Coût de possession

Les coûts de possession regroupent tous les coûts encourus par la détention du stock:
  • Coût d’immobilisation du capital,
  • Coût de financement de l’entrepôt,
  • Coût d’assurance,
  • Coût de péremption

Un stock, c’est avant tout du capital immobilisé. Cet argent, qu’il soit emprunté ou non, pourrait être utilisé à des choses plus rentables. Ce coût d’opportunité est appelé en gestion de stock « coût d’immobilisation ». Il est traditionnellement de l’ordre d’au moins 10% du capital immobilisé par an. Ce coût est évidement linéairement lié au volume stocké.
L’entrepôt est souvent loué (ou il pourrait servir à autre chose si on le possède). Il y a donc là encore un coût d’immobilisation du capital. Rattacher ce coût au volume stocké (ou au capital immobilisé) est une approximation courante. C’est cependant un coût plus complexe, et pas toujours différentiel. Peut-on se séparer de 20% de l’entrepôt si on ne l’utilise plus ? Est-il réellement possible d’en louer 30% de moins ?
L’entrepôt est aussi chauffé, nettoyé, et du personnel navigue à l’intérieur, bref le bâtiment a un coût de fonctionnement. Le coût des personnes se déplaçant dans l’entrepôt est différentiel si le nombre d’aller-retours est lié au volume des commandes. Pour ce qui est des coûts d’opération, on peut estimer qu’ils sont proportionnels au volume utilisé. L’approximation les rendant linéairement dépendants du capital immobilisé est plus discutable. Quant au coût de personnel, le seul coût différentiel, c’est le nombre d’aller-retours dans l’entrepôt, et celui-ci est minimisé si la quantité commandée est maximale (un seul mouvement pour la dépose). Donc, ces coûts seraient INVERSEMENT proportionnels au volume entreposé. Ceci n’est jamais réellement pris en compte.
Le coût d’assurance est souvent effectivement un coût différentiel, lié au capital assuré, donc au capital immobilisé.
Le coût de péremption (ou coût d’obsolescence) correspond au risque d’invendu. Si le produit reste trop longtemps dans l’inventaire, il peut soit se dégrader, soit devenir invendable car dépassé par d’autres produits. Ce serait le cas par exemple d’une mémoire flash de 1G acheté en inventaire en 2008, fort cher, qui était complètement dépassé l’année suivante.

Remarque 1 :
Comme on le voit, la valorisation du coût de possession est délicate. On prend souvent, sans réellement recalculer, de l’ordre de 20% du prix du produit par année de stockage. Il faut être prudent et surtout dans l’interprétation des décimales du résultat :) se souvenir de l’approximation faite à ce niveau.

Remarque 2 :

Pour la valorisation des stocks, il faut une évaluation du capital immobilisé. Doit-on évaluer à partir du coût payé (le prix des produits peut évoluer dans le temps), du prix de vente (opportunité d’affaire), d’un coût moyen? Le plus simple est de prendre un coût moyen, non lié au temps.

Coût de rupture

Que coûte un produit indisponible ? Si le produit n’est pas en inventaire, le client peut :
  • Repasser ultérieurement le prendre,
  • Repasser ultérieurement le prendre, moyennant un « effort » commercial,
  • Partir et acheter le produit ailleurs,
  • Partir fâché, et ne plus jamais revenir,
  • Partir fâché et le faire savoir autour de lui.

Les situations sont très diverses. Si la pratique admise dans le domaine est de repasser, le client le fera naturellement. Si au contraire il s’attend à repartir avec (du pain dans une boulangerie), s’il n’en trouve pas, il risque de partir ailleurs. Dans certains cas, c’est encore plus complexe. Dans un hôpital, les médicaments sont approvisionnés par des tournées régulières des fournisseurs. En cas de manque, on va dépêcher un taxi pour amener le produit en urgence. Dans certains secteurs manufacturiers, si le produit rentre dans la composition d’un équipement extrêmement dispendieux et qu’il manque, on l’approvisionnera en urgence en avion s’il le faut.

Comment attribuer un coût à la rupture? Dans chaque cas, il faut évaluer les stratégies du client, les probabilités de comportement, et essayer de se faire une tête.

D’un point de vue modèle, il est important de savoir si le manque est une commande déplacée (reportée au moment où on aura à nouveau du stock) ou définitivement perdue.

Le plus souvent, si la commande est perdue, on se limitera à considérer le coût comme étant une vente perdue.

Des fiches techniques plus détaillées permettent d'aller plus loin dans ce domaine:
http://drupal.mgi.polymtl.ca/?q=node/49

Méthodes de gestion des stocks de produits non périssables (EOQ)

La principale méthode est celle de Wilson, universellement utilisée. On considèrera aussi le problème des prix variables, des transports par seuil et le groupement de produits.

Produits indépendants, modèle de Wilson

Hypothèses :

On gère un produit indépendamment des autres
La demande est constante dans le temps d
Les ruptures ne sont pas autorisées
La livraison des produits est instantanée
Le coût de passation de commande est constant CL
Le prix du produit est C
Le coût de stockage par unité de temps est le produit d'un taux Ts de stockage par le prix du produit Cs=Ts*C
L’horizon de gestion est infini


Sous ces hypothèses, (horizon infini, demande et coût indépendants de la période) on peut montrer que la politique optimale d’approvisionnement est cyclique. Le coût d’une politique est donc caractérisé par T ou par Q :

  • T Période de réapprovisionnement (même unité de temps que Ts)
  • Q quantité réapprovisionnée à chaque fois



Figure 2 : Deux valeurs de Q (Q1 et Q2) pour le même produit

On a évidement Q=d*T
et pour le coût de stockage de n produits durant une unité de temps, le coût est Cs(n)=Ts*C*n
Si on commande Q produits à la fois, le stock moyen est Q/2, et le coût de stockage moyen par unité de temps est donc Q/2*Cs.
Le coût d’une politique consistant à approvisionner toutes les T unités de temps,


Par période Par unité de temps
Coût possession [math]Cs\times \displaystyle\frac {Q}{2}\times T =Cs\times \displaystyle\frac{d\times T}{2}\times T[/math] [math]Cs\times \displaystyle\frac {Q}{2}=Cs\times \displaystyle\frac{d\times T}{2}[/math]
Coût approvisionnementCl [math]\displaystyle\frac {Cl}{T} = \displaystyle\frac{Cl\times d}{Q}[/math]



Ce modèle choisi devra être le coût par unité de temps. On exprimera le coût d’une politique C(Q) indifféremment en T ou en Q :


[math]C(Q)=Cs\times \displaystyle\frac{Q}{2}+ \displaystyle\frac{Cl\times d}{Q} = Cs\times\displaystyle\frac{d\times T}{2} + \displaystyle\frac{Cl}{T}[/math]



On a donc la politique optimale pour Q* vérifiant:


[math]\displaystyle\frac{ \partial C(Q) }{\partial D(Q)}= \displaystyle\frac{Cs}{2}- \displaystyle\frac{Cl\times d}{Q^2} =0 [/math], soit [math]Q^\star= \sqrt{\displaystyle\frac{2\times Cl \times d}{Cs}}[/math]



OU


[math]\displaystyle\frac{ \partial C(Q) }{\partial D(T)}= \displaystyle\frac{Cs\times d}{2}- \displaystyle\frac{Cl}{T^2} =0 [/math], soit [math]T^\star= \sqrt{\displaystyle\frac{2\times Cl}{Cs\times d}}[/math]



Et naturellement


[math]Q^\star= d\times T^\star [/math]



On peut calculer le coût de cette politique optimale, ainsi que les coûts de lancement et de stockage associés:

Coût d’approvisionnement [math]CL(Q^\star) = Cl\times d \sqrt{\displaystyle\frac{Cs}{2\times Cl \times d}}= \sqrt{\displaystyle\frac{Cl\times d \times Cs}{2}}[/math]
Coût de possession [math]CS(Q^\star) = Cs\times \displaystyle\frac{1}{2} \sqrt{\displaystyle\frac{2\times Cl \times d}{Cs}}= \sqrt{\displaystyle\frac{Cl\times d \times Cs}{2}}= CL (Q^\star )[/math]
Coût de la politique [math]C(Q^\star) = CL(Q^\star) + CS(Q^\star) = 2 \sqrt{\displaystyle\frac{Cl\times d \times Cs}{2}}= \sqrt{2 \times Cl\times d \times Cs}[/math]



Propriété :

Dans le modèle de Wilson, la politique optimale consiste à commander la quantité Q* telle que le coût de passation de commande soit exactement égal au coût de possession.


Figure 3 : Les différents coûts dans le modèle de Wilson


La sensibilité du modèle peut s’étudier en regardant l’équation suivante :


[math]C(Q^\star (1+\alpha))= C(Q^\star)\times (1+\beta) [/math]



Autrement dit quelle est l’augmentation relative du coût de la politique pour une augmentation de [math]\alpha[/math] pourcent de la quantité approvisionnée.

On trouve voir note technique ci-dessous:

[math]\alpha = \beta \left( 1\pm \sqrt{1+\displaystyle\frac{2}{\beta}}\right)[/math]


Il est intéressant de voir que cette relation n’est pas symétrique, mais pour une augmentation de coût « acceptée » de 5% par exemple (donc [math]\beta=0.05[/math]) on a une variation de quantité de -27% à +37%, soit une plage de variation très grande, sans grand changement dans le coût de la politique.

Extension
Cette note technique ci-dessous donne une généralisation du modèle de base avec des ruptures autorisées et un approvisionnement en continu des produits

Modèles linéaires par morceaux

On trouve plusieurs problèmes dans les entreprises qui peuvent se modéliser par une succession de zones dans lesquelles le modèle de Wilson s’applique (avec quelques fois quelques aménagements).

La démarche de résolution de ce type de problème est la suivante :

  • Pour chacune des zones :
    • Identifier le modèle correspondant à la zone.
    • Calculer la politique optimale pour le modèle de la zone.
    • Puisque le modèle n’a qu’un minimum, l’optimum de la zone est soit le point optimal (s’il est dans la zone) soit le point frontière le plus proche.
    • Calculer le coût de la politique en ce point.
  • Choisir la zone ayant la politique la meilleure.



Figure 4 : Exemple de 4 zones à paramètres constants


Dans l’exemple de la Figure 5, il y a 4 zones, de 4 couleurs différentes. Chaque zone donne lieu à un modèle du type « Wilson » et dispose d’un optimum :

  • L’optimum en vert est dans la zone orange, donc pour la zone verte, l’optimum est la frontière entre vert et orange.
  • L’optimum de la courbe orange est dans la zone orange, c’est l’optimum de cette zone.
  • L’optimum de la zone bleue est encore dans la zone orange, l’optimum est donc la frontière entre orange et bleu.
  • L’optimum de la courbe rose est dans la zone orange, l’optimum de la zone rose est donc sa frontière avec la zone bleue.

Finalement, la solution optimale sera dans la zone bleue, à la frontière avec la zone orange, puisque cette valeur est la plus faible des 4 minima de zone.

Globalement, le point le plus bas est le rose, mais les paramètres du modèle ne s’appliquent pas dans cette zone.

Exemple 1:

On trouve cette approche si il y a un coût différentiel de transport, avec 3 camions différents, un petit, un moyen et un gros, chacun ayant un coût fixe et un coût variable. Les zones correspondent aux camions. Dans ce cas, il faut faire attention pour le calcul du coût optimal par zone, car le coût fixe de transport qui n’est pas différentiel DANS la zone doit être incorporé, car il est différentiel entre les zones.

Exemple 2:

On trouve cette approche si le fournisseur définie 2 zones de prix (ou plus) de la manière suivante :

  • Prix = [math]x[/math] dollars, jusqu’au 1000ème produit
  • Au-delà, chaque produit additionnel coûte [math]x\times (1-\alpha)\$[/math] (prix réduit)

Dans ce cas, le prix d’achat devient différentiel, mais là encore, seulement entre zone.

Politique de gestion pour produits non périssables

Dans le cas d'une politique de gestion pour produits non périssables, la modélisation permet de déterminer le modèle de coût et de contrainte associé à l’approvisionnement d’un ou d’une famille de produits. L’optimisation permet de déterminer les paramètres (T et Q) de gestion du produit. Il faut alors déterminer comment, dans le monde, appliquer ces valeurs. Les deux grandes méthodes sont :
  • Quantité fixe, période variable (Point de commande),
  • Période fixe, quantité variable (on remonte au stock maximum),

Dans les deux cas, un stock de sécurité va permettre de se prémunir contre les imprévus:

  • Dans le cas de quantité fixe : augmentation de la demande durant le délais d'approvisionnement ou augmentation du délais d'approvisionnement,
  • Dans le cas de période fixe : augmentation de la demande durant toute la période

En effet, si l'on travaille en période fixe, le fournisseur connait parfaitement la date de livraison et n'a pas d'aléa (en tout cas beaucoup moins)

Politique à quantité fixe, ou point de commande

Le principe consiste à attendre d’avoir consommer suffisamment de produits pour déclencher un réapprovisionnement.

point de commande

Le point de commande (stock d'Alerte, point de réapprovisionnement, etc. selon les entreprise) est calculé comme la quantité de produits qui sera normalement consommée durant le réapprovisionnement.

  • D Durée de réapprovisionnement (en jour)
  • d Demande journalière
  • Sa Stock d’alerte ou point de réapprovisionnement


[math]Sa= d\times D[/math]


Le principe consiste donc à commander lorsque le stock atteint ce niveau particulier.

Figure 1

Sur cette figure, on constate que lorsque la demande est plus forte que prévue (elle pourrait évidement être moins constante) on arrive plus vite au point de commande et on s'adapte à cette variation en anticipant le commande. Évidemment, si la demande est toujours supérieure à celle prévue durant le délai d'approvisionnement D on va avoir une rupture de stock (d'ou le besoin de stock de sécurité). Dans le cas d'une demande plus faible (schéma de droite) la demande arrive légèrement plus tard.
Évidement, on a un petit problème si Sa> Q. Cela signifie que plusieurs commandes sont encours simultanément.

Stock de sécurité

À cette valeur, on ajoute souvent un stock de sécurité. Ce stock est là pour couvrir l’aléa de la demande durant la période de réapprovisionnement.

  • Aléas dus à une surconsommation
  • Aléas dus à un allongement du délai de réapprovisionnement

Si la demande journalière suit une loi normale N(m,s), de moyenne m et d’écart type s, si la distribution de probabilité du délai d’approvisionnement est connue (les P(Da=t) connus pour tout t), alors un stock de sécurité de K, la probabilité de rupture est :


[math]P_{\text rupture}(SS = K) = \displaystyle\sum_{t=1}^{+\infty} P(Da=t)\times P(N(t\times m,\sqrt t\times s)> K)[/math]



En effet, c’est un produit de convolution. Si le délai d’approvisionnement est t, la loi de la demande sur t jours est une loi normale de moyenne « [math]t\times d [/math] » et d’écart type « [math]\sqrt t\times s [/math] » et on sera en rupture si on cette demande a excédé K.

Exemple :

Soit une entreprise Montréalaise approvisionnant au Mexique des chaises de jardin, avec un délai d’approvisionnement de 10 jours, mais la distribution de délais suivante :


< 9 9 10 11 12 13 14 > 14
P00.10.50.20.10.050.050


La demande suit une loi normale de moyenne 100 et d’écart type 20.

On peut alors calculer pour chaque (certaines…) valeur de K la probabilité de tomber en rupture. Le tableau suivant donne la probabilité de tomber en rupture si le délais d’approvisionnement est « t », variant de 9 à 14, puis la somme.


Kt=9t=10t=11t=12t=13t=14total
10000.0050.2500.1870.1000.0500.0500.641
11000.0000.0280.1000.0930.0500.0500.321
12000.0000.0000.0130.0500.0460.0500.159
13000.0000.0000.0000.0070.0250.0450.078
14000.0000.0000.0000.0000.0040.0250.029
15000.0000.0000.0000.0000.0000.0050.005



Tableau réalisé sous Excel, à partir des valeurs du problème et de la fonction Loi.normale(,,,). On voit qu’avec une commande de 1400, la probabilité de rupture est inférieure à 0.03.

Méthode rapide :

Si la consommation journalière durant le délai d’approvisionnement est [math]d \pm\triangle(d)[/math], alors avec un stock de sécurité de [math]K = \triangle(Da) \times d + \triangle(d) \times Da[/math] (se rajoutant au point de commande [math]d \times Da[/math] ), on a un bon résultat. Ceci revient à ajouter au seuil d’alerte [math](d \times Da)[/math] les incertitudes du premier ordre.

Exemple:

Sur l’exemple précédent, on peut admettre que d=100±20 et Da=10±2, on prend alors en SS

[math]SS = 20\times 10 + 100 \times 2 = 1400 [/math]


Si le délai de livraison est certain, c’est évidement plus simple. On peut alors calculer avec les outils statistiques classiques un taux de service (probabilité de rupture avec ce niveau de SS) ou partir du niveau de service voulu et calculer le SS correspondant.

Avantage de la méthode à quantité fixe (Q fixe):

D’abord, cette méthode brille par sa simplicité. On peut observer sa dérive, car si l’écart entre deux commandes varie, on peut diagnostiquer que le modèle est en dérive. Surtout, cette politique est robuste, car même si la demande fluctue, comme on s’adapte à la demande en modifiant les dates de commande, on corrige automatiquement les dérives.

Inconvénient de la méthode en quantité fixe (Q fixe) :

Cette méthode s’accommode mal du regroupement de plusieurs commandes. En effet, si plusieurs produits sont synchronisés, alors dès qu’un d’entre eux passe sous son stock d’alerte, il faut passer commande, mais que faire pour les autres produits. Doit on commander Qi*? NON, car sinon, si un produit est moins en régression par rapport aux autres, le système va dériver.

Politique à période fixe

Avec cette politique, on décide de commander toutes les « T » unités de temps pour respecter la période optimale, mais on adapte le volume commandé à la réalité de la consommation.

Notation :

  • Q*, ici appelé niveau de réalimentation,
  • D délai d’information,
  • d demande journalière,
  • qc quantité courante en stock
  • Q quantité à approvisionner

Il s'agit d'un délais d'information D négocié avec le fournisseur, qui peut être très faible puisque la date de livraison est parfaitement connue et qu'il y a généralement peu de variation sur la quantité commandée.

[math]Q=Q^\star + ((D \times d) - qc)[/math]



Figure 1

Ainsi, si le niveau de stock qc est exactement au niveau prévu [math](D\times d)[/math] puisque [math](T\times d = Q^\star[/math], alors la commande est exactement de Q*. Si la consommation a été plus forte, on commande plus car [math](qc < Da\times d)[/math], sinon on commande moins.

Dans cette politique, le stock de sécurité est plus important car il doit permettre de couvrir l’incertitude de la demande sur TOUTE la période d’approvisionnement. Si la demande journalière suit une loi normale de moyenne m et d’écart type s, alors la demande sur T suit une loi normale de moyenne [math]T\times m[/math] et d’écart type [math]\sqrt T\times s[/math].

Notons cependant que si l’approvisionnement est planifié (périodique) il n’y a souvent aucune incertitude sur le délai de livraison. En effet, le fournisseur connaît parfaitement la demande, et il doit simplement adapter la quantité. En cas de production, l’atelier peut planifier ses demandes dans le temps (en décalant les périodes) et en cas d’approvisionnement par fournisseur, on peut planifier les réceptions.

Les coûts de transports peuvent aussi être moins élevés du fait de la synchronisation.

Remarque :

Habituellement, il est préférable que toute les périodes soient soit identiques, soit multiples. En effet, si les périodes diffèrent, on peut perdre l’avantage de la planification car les demandes peuvent arriver en même temps.

Stocks de produits périssables (Newsboy)

Stocks de produits périssables

On parle de produit périssable lorsque l’approvisionnement se fait en une seule fois. Les produits excédentaires sont détruits ou vendus à perte, les produits manquants sont définitivement perdus. On trouve cette situation dans :

  • les produits de type mode, saisonnier, acheté en Asie, approvisionné en container,
  • les produits alimentaires frais,
  • certains produits alimentaires avec date serrée de péremption,
  • etc.

La gestion de ces inventaires se fait alors en 4 étapes :

  • Estimation du besoin et donc des ventes prévisionnelles
  • Passage de la commande et attente
  • Réception des produits et début des ventes
  • Fin des ventes et constatation soit d’un surplus soit d’un manque

Évidement, le but est d’avoir les meilleures prévisions possibles. Au-delà de cela, il faut déterminer la quantité à approvisionner en faisant un arbitrage entre les coûts de pénurie et ceux de rupture.


Figure 5


Sur la figure, on voit deux résultats de vente. En rouge, les ventes sont bonnes mais on fini en négatif, donc on a une rupture. En vert, on a des surplus.

Modèle de base

Notation:

  • c, coût d’achat du produit
  • v, prix de vente du produit
  • f, densité de probabilité des ventes (estimée)
  • X, demande réelle
  • G(S), gain si on approvisionne S produit

On doit calculer le gain G(S):


[math]G(S)= v\times min(X,S) - c \times S[/math]



[math] \displaystyle\frac {\partial G(S)} {\partial (S)} = v\times \left( \displaystyle\frac {\partial (min(X,S)}{\partial (S)}\right) - c [/math]



[math]\displaystyle\frac {\partial G(S)}{\partial (S)} = v \times (1 \times P(S < X) + 0 \times P(S \ge X)) - c = v \times P(S < X)-c[/math]



[math]\displaystyle\frac {\partial G(S)}{\partial (S)} = v \times [1 - P(S \ge X)] - c = v \times [(1 - F(S)]-c [/math]



Et par conséquent :

[math] \displaystyle\frac {\partial G(S)} {\partial (S)} = 0 \to S = F^{-1}\left[ \displaystyle\frac{v - c}{v} \right] = F^{-1} \left[1- \displaystyle \frac{c}{v} \right]
[/math]



Donc la politique optimale est simplement calculée par la fonction inverse de la fonction de répartition de la densité de probabilité de la demande.

Exemple :

Un boulanger fabrique des viennoiseries tous les jours. Le surplus est donné aux employés le soir, mais gratuitement. Le coût de fabrication est estimé à 0.40 [math] \$[/math], le prix de vente à 1,00 [math]\$[/math]. La demande suit une loi normale de moyenne 120 et d’écart type 20. Combien doit-t-il en fabriquer :

Réponse (voir Excel) ==LOI.NORMALE.INVERSE((1-0.4)/1,120,20)=125

Remarque :

Rien n’est jamais si simple. D’une part, le commerçant vend ses viennoiseries 1.00 [math] \$[/math] l’unité, et 4.00 [math] \$[/math] pour 5 unités, la répartition est inconnue, car la caisse n’enregistre pas cela. D’autre part, les employés sont plus fidèles s’ils emportent de temps en temps des viennoiseries chez eux. Et finalement, pour connaitre la loi de la demande, le commerçant dispose d’un fichier donnant jour par jour sa production, combien il en reste à la fermeture (si il en reste) ou l’heure de vente du dernier. C’est avec cela qu’il doit reconstruire la loi de demande….

Dans le cas de la quantité économique de commande, on a calculé le coût d’une politique. Il peut ici aussi être intéressant de calculer le gain associé à la politique optimale. C’est malheureusement beaucoup plus compliqué car il n’existe pas de formule indépendante de la loi de probabilité de la demande (voir note technique).

Modèle générale

Notation :

  • c, coût d’achat du produit
  • v, prix de vente du produit
  • r, coût de rupture
  • s, prix de solde
  • p, prix de possession
  • f, densité de probabilité des ventes (estimée)
  • X, demande réelle
  • G(S), gain si on approvisionne S produit

Ces trois nouveaux coûts (r, s, p) sont généralement introduits dans le modèle général. Ils correspondent aux réalités suivantes :
Le coût de rupture exprime qu’une non vente peut se traduire par une perte au-delà de la non vente. Si le client ne trouve pas son produit, il peut ne plus revenir ou supprimer d’autres achats

Le prix de solde exprime que si le produit n’est pas vendu au bout de la période de vente, on peut s’en départir à perte, mais pas pour rien.

Le coût de possession est souvent rajouter par symétrie avec le problème de Wilson.

Dans cette partie nous ignorerons la partie coût de stockage car il peut, sans nuire à la généralité, se grouper au prix d’achat.

Le gain est alors:


[math]G(S) = v \times min(X,S) + s \times max(S - X,0) - r \times max(X - S,0) - c \times S[/math]



[math]\displaystyle\frac {\partial G(S)}{\partial (S)} = v \times \displaystyle\frac {\partial (min(X,S))}{\partial (S)} + s \times \displaystyle\frac {\partial (max(S - X,0))}{\partial (S)} - r \times \displaystyle\frac {\partial (max(X - S,0))}{\partial (S)} - c [/math]



[math]\displaystyle\frac {\partial G(S)}{\partial (S)} = v \times (P(S < X)) + s \times (P(S - X > 0)) + r \times (P(X - S > 0)) - c [/math]



Note : le signe « + » devant le « r » s’explique par le fait que la dérivée de « max(X-S,0) » par rapport à S est de « -1 » si « X-S>0 » et de « 0 » sinon. Le coût de rupture décroit avec S, alors que les coûts d’achat et de vente de surplus croissent avec S.


[math]\displaystyle\frac {\partial G(S)}{\partial (S)} = v \times (1 - P(X < S)) + s \times (P(X < S)) + r \times (1 - P(X < S)) - c [/math]



[math]\displaystyle\frac {\partial G(S)}{\partial (S)} = v + r - c - (v + r - s) \times P(X < S) [/math]



[math]\displaystyle\frac {\partial G(S)}{\partial (S)} = 0 \to F^{-1}(S) = \displaystyle\frac {(v + r - c)}{(v + r - s)} [/math]



Exemple :

Si le même boulanger estime que la perte d’un client lui coûte 10[math]\$[/math] et qu’il solde ses viennoiseries à 0.20 [math]\$[/math] en fin de soirée, il doit fabriquer :

Solution (avec Excel)= LOI.NORMALE.INVERSE((1+10-0.4)/(1+10-0.2),120,20)=162

On est donc beaucoup plus prudent.

Limite :

Le modèle n’a de sens que si « s < c », autrement dit si les surplus sont vendus à perte. Dans la réalité (Cf boxing day) on fait des rabais, mais pas de la vente à perte. Si on relaxe cette contrainte et que « s>c », alors le coefficient [math]\displaystyle\frac {(v + r - c)}{(v + r - s)} [/math] passe au-delà de 1 et cela n’a pas de sens. À la limite, si « s=c » on doit commander une quantité infinie. Le problème vient du modèle mathématique sous-jacent qui assume que TOUS les invendus seront vendus, donc qu’implicitement, la demande est infinie. Or ce n’est évidement pas le cas.

Les modèles en boucle fermée (Kanban et autres)

Les modèles en boucle fermée

Les modèles en boucle fermés on pour but de limiter en Hardware le volume d'encours dans l'atelier. Deux grandes méthodes : le Kanban (qui est simultanément un mode de déclenchement de la demande et de contrôle de l'encours) et le CONWIP (CONStant Work In Process) qui est purement un système de limitation de flux et doit être utilisé avec une autre méthode de déclenchement (Flux poussé ou Knaban).
Une méthode plus rare, EPEI est cité dans la littérature.

Kanban

Principe

Les produits sont mis dans des contenants (caisse, container, etc.) avec une étiquette Kanban (Kanban signifie étiquette). Lorsqu'un contenant est entamé, on prélève l'étiquette Kanban du contenant qui est alors disponible pour être réapprovisionné (produit, approvisionné ou acheté selon les cas). Seul le contenant entamé peut n'avoir aucune étiquette.
Pour chaque produit fabriqué, on détermine donc le nombre de Kanbans requis. Le nombre d'étiquettes correspond au nombre maximum de contenants (moins un si il y a un contenant entamé)que l'on peut gérer. Pour fabriquer un lot de produits, il faut disposer d'une ou plusieurs étiquettes (correspondant à autant de produits déjà consommés). Lors de la mise en fabrication, on associe un Kanban par contenant de produits. Lorsque le lot de produits est fini, on dépose le (ou les contenants) produit(s) avec leur(s) étiquette(s) dans le lieu de consommation. Lorsque le premier produit de ce lot est consommé, on retire le Kanban de la caisse et on peu commencer à produire le lot suivant.



Figure 6


Il y a deux types de Kanban :

  • Kanban classique: les containers ont un volume connu, on en cherche le nombre d'étiquettes.
  • Kanban à deux containers seulement, on cherche le volume du container.

Kanban classique, recherche du nombre d'étiquettes

Le nombre NF d'étiquettes (nombre de Kanbans, nombre total de containers) se calcule en fonction de trois paramètres :

  • la demande journalière (en produits): D
  • le volume du container: K
  • le temps de réaction : C

[math]N_F=\displaystyle\frac {D}{K}C[/math]

Le temps de réaction inclut :

  • la cueillette des Kanbans (temps entre la libération de l'étiquette sur le lieu de consommation et sa prise en compte au lieu de production). Souvent, la cueillette se fait à une fréquence donnée, donc cette durée est bornée,
  • le délai de mise en production (attente de la libération de la machine, réglage, etc.)
  • la durée de production elle-même,
  • le temps de retour entre le lieu de production et le lieu de consommation.

On peut multiplier cette valeur par un coefficient [math](1+\beta)[/math] ou [math]\beta[/math] représente un coefficient de sécurité.


[math]N_F=(1+\beta) \displaystyle\frac {D}{K}C[/math]


Notons que le principe KANBAN s'inscrit dans une mouvance d'amélioration continue caractérisant la méthode TOYOTA. Le nombre de Kanbans est donc une valeur initiale qu'il convient de diminuer au fur et à mesure des améliorations. Le but est de diminuer petit à petit ce nombre.

Le nombre de Kanbans doit-il évoluer si la demande augmente ? On pourrait penser que si la demande augmente, il faut augmenter le nombre de Kanbans. Les adeptes de la méthode Toyota refusaient de changer ce nombre, arguant que c'est au niveau de la planification qu'il faut agir : si la demande anticipée augmente, on doit augmenter les ressources au point que le temps de réponse diminue d'autant.

Exemple:

Soit une demande journalière moyenne de 48 produits (sur une base de 8 heures par jour), un container de 4 produits et un délai de mise à disposition de 2 heures (en l'occurrence 0.25 jour). Le nombre de Kanbans est donc de

[math]N_F= 48/4\times 0.25 = 3 [/math]

Kanban à deux contenants

Dans ce cas, il y a deux contenants A et B. Lorsqu’un contenant est vide (le A par exemple), on entame le second (donc le B) et on demande un approvisionnement simultanément du premier. L'approvisionnement du contenant demandé (le A) doit donc arriver au moment (un peu avant si possible) où le second (le B donc) est vide.

Le volume d'un contenant doit donc couvrir la demande pendant le temps de réaction du système.

[math]K=D\times C[/math]


D (demande par unité de temps) et C (temps de réaction) sont exprimés dans la même unité de temps.

Exemple:

Soit un restaurant de restauration rapide qui sert 5 portions de frittes à la minute, et il faut 5 minutes pour faire un panier de frittes. On fonctionne avec deux paniers. Chaque panier doit donc contenir :

[math]K= 5\times 5= 25 \text{ portions de frittes} [/math]

Kanban avec lots de fabrication

Lorsque les produits ne sont pas fabriqués dès que la demande arrive mais par lots (dits un peu rapidement lots économiques), il faut plus de Kanbans car le temps de réaction augmente. Les nouveaux paramètres sont :

  • q : taille du lot de fabrication (en produits)
  • q/k: nombre de containers nécessaires pour commencer la fabrication

Un container arrivant (le premier) doit attendre q/k-1 containers pour que la fabrication commence. C'est donc la valeur à ajouter et le nouveau nombre de container est :


[math]N_F=\displaystyle\frac {D}{K}C + \left(\displaystyle\frac {Q}{K}-1 \right)[/math]

On peut vérifier cette valeur en utilisant un nouveau temps de réaction C’ incluant la durée de consommation des q/k-1 containers qui constituent le lot (avec le premier container).

[math]C'= C + \displaystyle\frac {\left( \displaystyle\frac {Q}{K}-1 \right)\times K }{D} [/math]


[math]N_F= C'\displaystyle\frac {D}{K} =\displaystyle\frac {D} {K} \left( C + \displaystyle\frac {\Bigl(\displaystyle\frac {Q}{K}-1 \Bigr)\times K }{D} \right) = \displaystyle\frac {D}{K} C + \left(\displaystyle\frac {Q}{K}-1 \right) [/math]

Règles de fonctionnement et limites

Les principales règles à respecter lorsqu’on utilise un Kanban sont :

  • Aucune fabrication ne peut se faire sans une étiquette Kanban,
  • Les contenants doivent être consommés dans l'ordre et ne pas être tous entamés en même temps,
  • On ne doit pas avoir de problème de qualité.

En effet, comme pour tous les systèmes de flux tiré, le niveau de stock est bas et le moindre problème de qualité entraine une rupture de stock.

Il y a plusieurs limites au fonctionnement du Kanban :

  • Il est difficile de faire de la traçabilité. En effet, l'absence d'ordre de fabrication formel (c'est l'étiquette Kanban qui sert de déclencheur de la mise en fabrication) ne permet pas d'attacher les caractéristiques de la production (lots de matière première, opérateurs, etc.) à un ordre,
  • En cas de ressources partagées, le temps d'attente peut s'avérer long. De plus, si plusieurs Kanbans (correspondant à des produits différents) sont libres simultanément, il faut une règle d'arbitrage. Le plus souvent, on utilise un tableau Kanban. Voir la fiche Tableau Kanban dans la section Fiches Techniques.

Une autre caractéristique du KANBAN est que son stockage physique demande souvent de réserver un emplacement pour tous les KANBANS : on réserve l'espace maximum. Comme il est borné, il est assez facile de le faire. Soit on utilise des emplacements marqués au sol (gros équipements), soit on utilise un stockage dynamique pour garantir un accès FIFO aux objets et l'utilisation séquentiel des contenants.

Une place pour chaque chose, chaque chose à sa place

Kanban multiproduits

Lorsque plusieurs produits sont fabriqués par la même cellule de production, il y a une boucle Kanban par produit. Évidement, l’accès à la ressource devient plus difficile et le temps de réaction C peut se trouver considérablement augmenté.

Notons aussi qu’en cas d’atelier plus complexe, si tous les produits demandent simultanément une production, l’encours de l’atelier peut augmenter en créant un engorgement. En effet, sur chaque boucle Kanban l’encours est limité, mais les boucles ne sont pas synchronisées.

Lorsque le même atelier est utilisé pour plusieurs boucles Kanban, on utilise un tableau Kanban (voir la fiche Tableau Kanban dans la section Fiches Techniques).

Plusieurs extensions simples ont été faites. Les Kanbans de transfert (voir la fiche Kanban de Transfert dans la section Fiches Techniques) et les Conwip.


Figure 7


Un bon exemple de Kanban à deux cartes
Un bon exemple de Kanban à deux cartes et e-kanban
Un bon exemple de Kanban avec communication RFID

Conwip

Domaine d'application

Le CONWIP est un outil servant au contrôle de la production d'un atelier déterminé. Il permet de limiter de manière stricte le nombre de produits simultanément présents dans l'atelier. C'est un système de contrôle par boucle fermée. Il faut attendre une sortie de pièce pour avoir l'autorisation d'en commencer une autre.

Principe de base

On détermine a priori le nombre maximum de produits en encours de fabrication (Work In Process). On dispose de ce nombre de CONWIP (cartons, étiquettes, autorisations, peu importe la dénomination). Pour qu'un produit puisse être lancé en production, il faut lui associer un CONWIP libre. Le CONWIP accompagnera le produit tout au long de la production et sera libéré dès que le produit est terminé (sort de l'atelier).

Les demandes qu’on ne peut pas fabriquer (produits qu’on souhaite fabriquer mais qui ne disposent pas encore de CONWIP) sont virtuellement stockées dans une liste d'attente (Backlog). Cette liste est généralement gérée en FIFO, mais on peut la gérer différemment.

Par construction, un CONWIP est utilisé dans un contexte mixte de flux poussé/ flux tiré. Les ordres de fabrications sont générés par un système de type MRP ou autre. Ils sont envoyés dans l'atelier, mais ils sont bloqués (ils restent en attente d'un CONWIP).

Le CONWIP n'est pas un flux tiré à proprement parlé puisque c'est la fin d'une production qui génère la mise en fabrication d'une demande en attente.

Domaine d'utilisation

Pour que le CONWIP ait un sens, puisque toutes les pièces utilisent la même "étiquette", il faut que la charge induite par chaque pièce soit plus ou moins la même. Il ne faut pas forcément que l'atelier soit une ligne, ni que chaque pièce ait la même gamme, mais il vaut mieux que le volume de travail soit comparable.


Figure 8

CONWIP versus KANBAN

Il existe plusieurs différences importantes entre le CONWIP et le KANBAN:

  • Le kanban est associé à un produit donné, le CONWIP est commun à tous les produits,
  • Le kanban est souvent lié à un seul moyen de production alors que le CONWIP englobe un atelier complet,
  • Le kanban est réutilisable lorsque la pièce est consommée, le Conwip est réutilisable lorsque la pièce est fabriquée.

De fait, ces méthodes sont assez différentes.

Extension

La première extension du CONWIP consiste à disposer de plusieurs CONWIPs, un par produit ou un par famille de produit. Si on fonctionne par famille de produit, on doit réunir dans une même famille l'ensemble des produits ayant un temps de production comparable.

EPEI (Every Part Every Interval)

Cette méthode consiste à utiliser un ordonnancement cyclique des produits à fabriquer, en calculant la taille des lots en fonction du temps disponible pour les réglages:
http://leanmath.com/blog/2013/05/14/every-part-every-interval-epei/
http://www.allaboutlean.com/epei-pattern-leveling/

Références

http://web.mit.edu/manuf-sys/www/amb.summary.html

_______________
1 Les fiches techniques sur http://www.free-logistics.com/index.php/fr/ sont intéressantes.

La planification de la production



Planifier, c’est prévoir. La planification permet entre autre de faire plusieurs choses importantes :
  • Baisser le stress dû à l’incertitude en pouvant se projeter dans le futur en s’assurant que l’on sera capable d’atteindre les objectifs voulus
  • Prendre immédiatement des décisions qui ont un certain délai de mise en œuvre et qui permettront d’atteindre les objectifs (ajustement des ressources aux objectifs ou des objectifs aux ressources)
  • Communiquer le plan afin que l’environnement puisse s’adapter à la planification choisie

Planification de la production: généralité

Planifier est donc toujours lié à un ensemble de paramètres importants, assez indépendants de ce qui est réellement planifié. On doit toujours considérer les 3 grandes dimensions d’un plan :
  • Le domaine (où?):
    • L’environnement de la planification, la portée: entreprise, usine, vacance, carrière, congrès, etc.

  • L’objet (quoi ?):
    • La nature des opérations à planifier, unité de mesure de la demande
    • Les ressources prises en compte (dollars, moyens de production, personnels, etc.)
    • Souvent, des mesures de performance
      • L’unité de mesure de la charge induite par ces opérations (coût, temps, matière première, etc.)
      • La mesure des coûts associés à l’utilisation des ressources, voir à la variation du niveau de ressources.

  • Le temps:
    • L’unité de mesure du temps et l’horizon pris en compte (année, mois, semaine, heures, etc.)
    • La fréquence de remise en cause du plan

On introduit des mesures de performance lorsqu’on choisi un plan parmi plusieurs, en fonction d’une évaluation du coût induit.

Planifier les opérations consiste à positionner dans le temps les actions de production à effectuer en mettant en place les ressources nécessaires à la réalisation de ces opérations.

Selon le Scor modèle (http://www.supply-chain.org/) toute opération de planification des opérations doit être vue comme la planification de trois éléments fondamentaux :

  • L’approvisionnement (source)
  • La réalisation (make)
  • La distribution (delivery)

Cette vision impose de ne pas se concentrer seulement sur la production (interne le plus souvent) mais de systématiquement s’interroger sur les liens avec le monde extérieur, pour les approvisionnements et la distribution.



Figure 1: le modèle de planification SCOR


Ce modèle simple se décline dans les référentiels SCOR sur toutes les activités de la chaîne logistique. Penser ce modèle impose de réfléchir non seulement à ce que l’on souhaite planifier (le make) mais aux impacts de cette planification sur la partie amont et la partie aval de la chaîne logistique.

De la planification globale à la planification détaillée

La planification globale est indispensable pour déterminer les ressources à mettre en place.
La planification détaillée est indispensable pour savoir quoi faire au jour le jour, et s'assurer de la cohérence entre les différentes parties de l'entreprise.
Entre les deux, il y a une triple désagrégation à faire :

  • Désagrégation spatial, de l'entreprise à l'usine, de l'usine à l'atelier, de l'atelier à la machine.
  • Désagrégation temporelle, de l'année au mois, du mois à la semaine, de la semaine au jour, du jour à l'heure,
  • Désagrégation technologique, de la famille de produits aux produits finis, du produit fini aux composants, du composant aux opérations d'usinage élémentaires.

Actuellement, il y a deux approches différentes pour réaliser ces désagrégations : l'approche par découpage hiérarchique de plans en sous-plans (approche MRP défini par L'APICS) et l'optimisation globale avec les APS.

Historiquement, ces désagrégations ont été codifiées par l'APIC, en tenant compte des contraintes technologiques de l'époque :

  • Ordinateurs relativement peu puissants,
  • Difficulté de faire du suivi temps réel en atelier,
  • Peu de communication enter partenaires.
  • Des algorithmes d'optimisation gourmands en temps et en mémoire

L'APICS a préconisé une cascade d'étapes de planification (Master Production Schedule, Calcul des Besoins, Ordonnancement détaillé) basée sur le principe du découplage:
  • Pour passer d'un plan agrégé à des sous-plans, correspondant au découpage d'un système en sous-systèmes, on donne à chaque sous-système suffisamment de degrés de liberté pour qu'il puisse élaborer son propre plan, sans interférer avec les autres sous-systèmes.

Ce principe à dominé la culture de planification industrielle jusque dans les années 2000. On été créé les outils MRP1, puis MRP II, et tous les logiciels de type GPAO puis ERP.
L'approche par MRP I (puis MRP II) a souvent été une grosse amélioration sur l'existant, mais elle pose plusieurs problèmes majeurs :
  • Normalement, après chaque calcul des besoins, on devrait tester la capacité (au moins grossièrement) puis re-boucler en cas de dépassement, ce qui n'est presque jamais fait,
  • Même si on utilise pour le calcul des besoins des outils de mesure de la capacité, c'est seulement après l'ordonnancement détaillé que les réels problèmes de capacité apparaissent,
  • Pour rendre les sous-plans indépendants, on rajoute à tous les niveaux des marges permettant de prendre des décisions dans chaque sous-plan indépendamment des autres. À la longue, ces marges s'accumulent et les encours augmentent beaucoup.

Au tournant du siècle, de nouveaux éléments sont apparus:

  • Énormes progrès des ordinateurs,
  • Apparition d'outils puissants d'optimisation, solveurs et langages de propagation de contraintes,
  • Besoin d'une meilleure réactivité des systèmes de production,
  • Bons systèmes de suivi de production en temps réel.

Est alors apparue une autre approche, complètement différente, basée sur des outils logiciel d'optimisation appelés les APS pour Advanced Planning and scheduling.
Ces outils permettent de passer directement d'un plan de production (ou d'un carnet de commandes fermes, ou d'un mixte) à un ensemble de plans détaillés de production, en réalisant les trois désagrégations simultanément. Autrement dit, les APS ont la prétention d'optimiser (le terme est souvent fort, mais au moins de proposer de bonnes solutions) la production de tous les composants (tous les niveaux de nomenclature) dans tous les ateliers, en déterminant les trois grandes décisions de la planification de production :
  • Quoi produire,
  • Combien en produire,
  • Quand le produire,

Ces logiciels utilisent de la même façon des gammes, nomenclatures et opérations, mais avec un objectif d'optimisation global.
Notons cependant que leur usage reste limité à de grosses entreprises qui ont un solide suivi de production.

Les différents niveaux de planification

On distingue en planification de la production trois niveaux importants : le long terme (planification stratégique), le moyen terme (planification tactique) et le court terme (planification opérationnelle).



Note importante 1 :

Il est important de noter qu’il s’agit de plans. Un plan est par construction fait à partir d’un sous ensemble d’informations accessibles au moment de sa réalisation. À partir de ce sous ensemble d’informations, on établit un modèle du système à planifier. Il n’est ni possible (pour des raisons de coût) ni souhaitable (car le système étudié est plongé dans un environnement qui n’est pas complètement prévisible) d’aller vers un modèle complètement fidèle. Il faut donc admettre que le plan ne se réalisera pas complètement. C’est d’ailleurs pourquoi on le remet périodiquement en cause.

Note importante 2 :

Dans toutes les entreprises, d’une manière ou d’une autre, on réalise le plan stratégique et tactique (ou on devrait). En revanche, concernant le plan opérationnel, beaucoup d’entreprises constatent que la planification opérationnelle est trop complexe (beaucoup d’informations à manipuler, beaucoup d’incertitudes, et finalement des plans peu suivis). Dans ce cas, elles peuvent :

  • Fonctionner en FLUX TIRÉ (autrement dit il n’y a pas de plan détaillé de la production, mais elles réagissent à la demande),
  • Créer un ordonnancement « grossier » ne donnant que le cadre général du travail (par exemple l’ordre de lancement des ordres de fabrication dans l’atelier, sans aller jusqu’à l’ordonnancement détaillé

Plan de production : vision spatio-temporelle

Chaque plan est donc fait avec une unité de domaine et une unité de temps. Si le plan stratégique est un plan annuel pour une entreprise ayant 2 usines, alors les plans tactiques seront construits pour chaque usine, avec par exemple un horizon de 3 mois. Et si une des usines comporte 3 ateliers, alors il y aura peut-être dans cette usine trois plans opérationnels (un ordonnancement par atelier) avec, par exemple un horizon d’un mois.

De la même manière, si le plan a un horizon H donné, il est souvent revu périodiquement au cours de cette même période H. Par exemple, un plan stratégique annuel peut être revu et corrigé tous les trimestres. Un plan tactique trimestriel sera habituellement revu tous les mois. On parle de correction avec un horizon glissant.


Figure 2

On peut croire que cela fait beaucoup de plans, mais en fait ce ne sont pas les mêmes personnes qui font chaque plan. Les personnes de l’usine 1 ne gèrent qu’un seul plan, leur plan tactique, qui évolue seulement chaque mois. Il ne s’agit pas de nouveaux plans, mais d’évolution.

Il y a plusieurs méthodes pour refaire un nouveau plan :

  • Repartir de zéro (page blanche)
  • Fonctionner par écart et ne modifier que la partie de l’horizon correspondant à la nouvelle période
  • « Geler » une partie du plan et repartir de zéro pour le reste

Il n’y a pas de bonnes et mauvaises méthodes, chacune a son domaine d’application. La fréquence de re-planification peut aussi être :

  • Fixe (toutes les semaines, mois ou trimestre)
  • Variable (sur évènement ou à partir d’une divergence constatée)

Exemple :

Planification d’une semaine de travail d’un étudiant

En début de semaine, à partir des dates des livrables (devoirs, intra, etc.), du calendrier des cours, des réunions de projets avec des camarades, des activités autres (travail, sport, party, autre), planification du travail personnel.

Tous les jours, ajustement du plan en fonction des tâches réellement effectuées la veille (re-planification par écart).

Sur événement (annulation d’une réunion de travail pour un projet à cause de l’absence d’un camarade), re-planification des tâches par écart.

Si un professeur diffère un livrable en cours de semaine, éventuellement re-planification complète (on remet tout à plat, reprise de zéro).

Le concept d’agrégation désagrégation

Un plan se situe à un endroit précis de l’espace (domaine, objet, temps). Pour les construire ou les exploiter, on doit passer du général au particulier et du particulier au détail. Ceci est fait en agrégeant des données ou en désagrégeant des plans.

L’agrégation consiste à utiliser des données d’un niveau de l’espace (domaine, objet, temps) pour obtenir des données d’un niveau supérieur.

Exemple :

Agréger les demandes journalières d’un produit donné pour obtenir une demande mensuelle.

Agréger les demandes hebdomadaires de tous les produits d’une gamme de produit pour avoir la demande hebdomadaire de cette famille.

Agréger toutes les commandes de chaque client pour avoir le chiffre d’affaire mensuel de l’entreprise avec chacun de ses clients.

Agréger les demandes mensuelles d’une famille de produit dans chaque centre de production pour avoir la production mensuelle globale de l’entreprise.

En général, l’agrégation ne fait intervenir aucune décision particulière, c’est de l’arithmétique élémentaire.

Désagréger un plan consiste à utiliser une donnée de l’espace (domaine, objet, temps) pour obtenir des informations plus détaillées, d’un niveau inférieur.

Exemple:

Désagréger un volume mensuel d’activités pour une famille de produit en besoin par produit.

Désagréger un besoin hebdomadaire d’un produit donné dans un atelier donné et opérations élémentaires sur des machines de production.

Désagréger un objectif global mensuel de vente d’un produit donné en ventes mensuelles par pays.

La planification stratégique (SOAP)



La planification des ventes et de la production (Sales and Operation Planning) consiste à établir un consensus entre 3 acteurs principaux :
  • Le groupe marketing et vente,
  • Le groupe production et approvisionnement,
  • Le groupe budget et finance

Le consensus consensus porte généralement sur la quantité de produits par famille et par période que l’entreprise sera susceptible de vendre, définissant ainsi les revenus de l’entreprise, et sur les coûts engendré pour assumer cette production.

Détermination du besoin

La détermination du besoin (demand management) se fait essentiellement par deux acteurs : les services de marketing et de vente.

Le marketing 1 est le service qui analyse les besoins des clients, crée de nouveaux marchés, supporte de nouveaux produits. Sa vision du besoin client est une vision stratégique : il peut orienter le client vers de nouvelles directions par des opérations publicitaires, il peut relancer un besoin en soutenant des réingénieries de produits, il peut ouvrir de nouveaux marchés, etc. En revanche, il est souvent tourné vers ses objectifs, pas toujours vers la réalité journalière. On est dans le domaine du « planning ».

Le service des ventes sera au contraire plus tourné vers l’observation des historiques des ventes, et travaillera par projection du passé dans le futur. Il est plus observateur d’une situation qu’acteur pour modifier cette même situation. Il analysera les chroniques, cherchera à déterminer les causes exogènes ou endogènes des variations observables, et cherchera à prévoir l’évolution des ventes par sa compréhension du passé. On est dans le domaine du « forecasting ».

Paradoxalement, les secteurs marketing et ventes ne sont pas forcément aussi fusionnels qu’on pourrait le penser, et souvent leur communication est perfectible. Il est cependant impératif que les deux services s’accordent sur la détermination du besoin.

Remarque :

Souvent, en français, on traduit rapidement planning par planification (voir par exemple dans le grand dictionnaire terminologique) qui a en français un sens assez tactique, associé en particulier à la planification de projet qui est plus proche de l’ordonnancement que de la planification stratégique. D’ailleurs, le grand dictionnaire terminologique donne comme traduction de planning (anglais) le terme planification (en français) lui-même synonyme d’ordonnancement. Ce qui reviendrait à faire du terme ordonnancement (en français) une traduction de planning (anglais) ce qui est un contresens.

En revanche, forecasting est traduit par prévisions qui en français est souvent associé à une opération plus stratégique que la planification ou l’ordonnancement. Ce qui est un second contresens puisqu’en anglais, forecasting est directement lié aux prévisions dans les chroniques. D’ailleurs la A COMPLETER

1 http://fr.wikipedia.org/wiki/Marketing

Construction du plan de production

Objectif :

L’objectif est de positionner dans le temps les charges induites par le plan de la demande, en mettant en place les ressources nécessaires, si possible au moindre coût.

Leviers de décision

Les leviers de décisions consiste sont très simples :

  • soit décaler la charge (anticiper, puisque l’on teste un plan de la demande, donc on doit la respecter),
  • soit modifier la capacité nominale (augmentation ou diminution).

On peut modifier les capacités de plusieurs manières, selon la nature de l’entreprise :

  • Engagement ou remerciement de personnels,
  • Utilisation d’heures complémentaires,
  • Ouverture de nouveaux sites de production,
  • Changement de quart de travail (passage de 1 à 2 shifts, voire à 3 shifts),
  • Recours à la sous-traitance.

Pour ce qui est de décaler la charge, il faut tenir compte des contraintes (stockage maximum, contrainte de péremption des produits, etc.) et des coûts de stockage.

La mesure de la charge induite peut se faire de multiple manières :

  • Heure de travail
  • Utilisation de la machine ou du processus goulot
  • Chiffre d’affaire

Typiquement, on va créer un graphe de la charge cumulée et de l’activité cumulée

Notation :

  • D(t) plan de la demande en période t
  • DC(t) demande cumulée en période t
  • SS stock de sécurité souhaité
  • EX(t) exigible cumulé en période t, soit DC(t)+SS
  • X(t) charge effectuée en période t
  • XC(t) charge cumulée en période t
  • C(Q,t) coût pour obtenir une charge de Q en période t
  • K capacité de maximale de stockage

Le graphe représente généralement DC(t), EX(t), DC(t)+K et XC(t). Idéalement, XC(t) navigue entre EX(t) et DC(t)+K. Éventuellement, on peut prendre le risque de descendre entre DC(t) et EX(t), mais pas trop souvent (le stock de sécurité doit être théoriquement réservé pour une variation de la demande, ou un problème de production. On ne peut pas anticiper sa consommation).

Exemple:

Tableau 1: Exemple de plan de production





Voici un exemple de plan de production préparé pour l’année 2009, dans lequel les demandes mensuelles s’expriment en heures de travail. Le stock de sécurité est de 34400 produits, indépendamment du mois, et le stock maximum est de 55600. L’entreprise a une capacité nominale de 303 opérateurs, pour 8 heures par jours, 5 jours semaines.



Figure 2



Le schéma montre la courbe « plan » qui est le plan de production simple, avec 303 personnes dans l’entreprise, travaillant 40 heures semaines, avec 10 jours de vacances en juillet (données simples pour l’exemple).

Toutes les valeurs s’entendent en fin de période (les demandes comme les productions seront en fait réparties tout au long de la période.

Ce plan pose problème au mois de Mars (capacité d’entreposage dépassée) et au mois de juillet août, où le stock de sécurité est consommé.

Détermination des coûts de stockage induits

Le coût de stockage n’est pas si simple à calculer. D’une part il faut déterminer le niveau de stock maintenu dans la période, et d’autre part le coût de ce stockage.

Calcul du niveau de stock

Pour ce calcul, on dispose de :

  • Stock de la fin de période précédente A
  • Production durant la période B
  • Consommation durant la période C

Tous les calculs que l’on peut faire ne sont qu’une approximation, forcément biaisée, de la réalité. On peut avoir plusieurs interprétations, selon que l’on considère que la production est effectuée (ou du moins payée) au début, à la fin ou continument durant la période, et que la demande arrive au début, à la fin ou continument durant la période.

Tableau 2




Par exemple, la solution production linéaire et demande en fin de période est illustrée ci-dessous. On voit un stock en début de période de A, un stock de fin de A+B (production linéaire) suivi de la consommation C.



Figure 3



La version la plus pessimiste (stock le plus haut) consiste à considérer que la production est au début de la période, et la consommation à la fin (soit un stock moyen de A+B), la version la plus optimiste est que la consommation est en début de période, et la production à la fin (d’où A-C, mais attention, cette valeur peut être négative).

Aucune solution n’est parfaite, il faut simplement choisir en connaissance de cause et surtout, vérifier la sensibilité des choix du plan de production en fonction du modèle retenu. Si la solution est dépendante du modèle, il faut sans doute être prudent.

Exemple :
Tableau 3





Dans cet exemple (le même que pour le Tableau 1), le stock moyen est calculé comme la moyenne entre le stock en début et en fin de période, en considérant donc production et demande comme linéaire.

Calcul du coût de stockage

Dans le calcul du plan de production, le coût de stockage représente le coût de l’immobilisation financière dû à l’anticipation. Schématiquement, les coûts immobilisés sont les salaires et les matières premières.

Si l’unité du plan de demande est transformée en heure, il faut transformer ces heures en dollars, pour ensuite pouvoir appliquer un taux d’immobilisation lié à la masse monétaire imobilisée.

Notation :

  • Pi quantité annuelle à produire pour la famille i
  • Ci coût moyen de production d’un produit i, incluant matière et salaire
  • Hi heures de travail pour réaliser le produit i
  • CMHP coût moyen d’une heure personne



[math] \text{CMHP} = \displaystyle \frac {\sum P_i \times C_i} {\sum P_i \times H_i}[/math]



Ensuite, on multiplie le nombre d’heure par un taux de stockage, comme pour la gestion de stock, au minimum le taux d’emprunt.

Exemple :

Soit une prévision sur 4 familles, 1, 2, 3 et 4 et les données suivantes :

Coût horaire : 33 $
Tableau 4




Ainsi, le coût unitaire pour le produit 1 est : 880=20*33+220

Alors, le coût horaire est de 40$ environ.

Coût du changement de capacité

Le plan de production est un équilibre entre l’anticipation (permettant d’avoir des ressources constantes) et le changement de capacité.

Modèle de base: 2

Le premier modèle est un modèle de coût linéaire, mais avec un coût pour chaque saut de capacité :

  • Coût horaire (linéaire en fonction du nombre d’opérateurs)
  • Coût d’engagement d’une personne (recrutement)
  • Coût de remerciement d’une personne

Donc dans ce modèle, le coût d’avoir une capacité donnée dépend de la capacité à la période précédente.

Avec ce modèle, on peut avoir à un multiple d’opérateurs près, la capacité voulue, ce qui coûte, c’est de changer de niveau.

Modèle par quart de travail

Le modèle par quart de travail est plus complexe. On considère que la capacité ne peut pas s’ajuster complètement à la charge, mais qu’elle évolue par pallier. Typiquement, l’entreprise travaille en 1, 2 ou 3 équipes. Dans chaque mode, on a besoin d’un nombre déterminé de personnes, donc un coût fixe. Si la capacité excède la demande, le coût est le même. On peut aussi associer à ce modèle un coût de changement de nombre d’équipe, correspondant aux coûts du modèle de base.

Modèle avec heures complémentaires

On peut modéliser la possibilité d’utiliser des heures complémentaires, souvent en nombre limité (contrainte) et à un coût supérieur. Le coût de la capacité Ca est alors une fonction de deux variables :

Coût : C(Ca,N) ou Ca est la capacité ciblée et N le nombre d’opérateurs

Ce modèle est couplé avec le modèle de base et les décisions sont donc soit d’utiliser le nombre d’opérateurs pour changer la capacité, soit les heures complémentaires.

Ce modèle est évidement très lié aux conventions collectives de travail et aux possibilités qu’elles laissent pour moduler la charge de travail.

Modèle par sous-traitance

Pour modéliser la sous-traitance, on peut utiliser un modèle avec un coût fixe (par période, si on accède à la sous-traitance, et un coût linéaire en fonction du nombre d’heure de sous-traitance utilisé. Si le coût de la sous-traitance est inférieur à celui de la production en interne, sans contraintes additionnelles, une optimisation algorithmique de base conclura sans doute qu’il faut tout externaliser, ce qui n’est pas forcément le but de l’entreprise.

2 Ce modèle est couramment utilisé en Amérique du Nord où les employés, syndiqués ou non, sont assez peu protégés en cas de fluctuation de la charge. En revanche, les coûts de diminution du nombre des opérateurs est tellement élevé en Europe que ce modèle est souvent inutilisable (sauf si le volet de ressources susceptibles d’être modulées est un groupe de personnes intérimaires).

Les approches de résolution

Il y a deux solutions extrêmes:
  • Se caler sur la demande, et adapter au mieux la capacité (ce qui coute en changement de capacité, mais minimise les coûts de stockage), approche quelque fois dite synchronisée
  • Utiliser le stock nécessaire pour travailler à nombre de ressources constant (et éventuellement déterminer le niveau optimal de ressource dans ce cas)

En fait, la vérité est souvent entre les deux, et comme dans de nombreux problèmes, on peut soit faire un simulateur et faire une approche essais erreurs, soit faire de l’optimisation en utilisant la programmation linéaire, en nombres entiers ou non, selon le modèle choisi.

Un tableur peut permettre d’évaluer correctement les conséquences d’une proposition de l’utilisateur, tout en lui permettant de se limiter à des propositions qui lui semblent raisonnables. De fait, l’espace de décision est assez restreint, donc la méthode itérative par simulation est souvent suffisante.

L’optimisation par programmation linéaire est aussi assez facile à utiliser, mais il est difficile de rentrer dans le modèle un certain nombre de contraintes moins formalisées. Par exemple :

  • Le choix de diminuer la capacité a des conséquences humaines importantes, et ce choix n’est pas forcément automatisable,
  • L’utilisation ou non de la sous-traitance n’est souvent pas seulement mécanique, cela demande des certifications, du partenariat, et on ne peut pas automatiquement supprimer un sous-traitant ou lancer une sous-traitance pour une période trop courte,
  • Le changement de quart de travail est toujours possible, mais on ne peut pas changer constamment le mode de travail des opérateurs. Non seulement il y a des conventions collectives, mais il en va de la santé des personnes. Ces décisions doivent être soit exceptionnelles, soit durables.

En conclusion, le plan de production est souvent une opération suffisamment stratégique pour que l’on préfère utiliser une simulation de décisions prises par un manager.

La planification tactique (MPS, MRP, MRPII)

Contexte et Définitions

Le MPR (Material Requirements Planning) introduit dans la fin des années 60 inclut deux grandes fonctions : le Master production schedule et le Calcul des besoins.
le Master Production Schedule (MPS) qui donnera une désagrégation du Plan stratégique (Plan de Production ou Sales and Operation planning) spatial (passage de la famille de produits aux produits) et temporelle (transition entre ordre deux échelles de temps, souvent passage du mois à la semaine).
Le Calcul des besoins nets (CBN) qui transformera le MPS en ordres de fabrication, tout en tenant compte des stocks existants. Ce calcul se fera sur les besoins indépendants (produits finis gérés par le MPS), sur les besoins dépendants (composants, éléments intermédiaires dans les nomenclatures) et les matières premières achetées (plan des besoins matières). Pour cela, il utilise les méthodes d'approvisionnement en flux poussé.
Le MRP 2 (Manufacturing Resources Planning), contrairement à ce que son nom indique, est un système de planification des ordres comme le MRP, mais il ajoute un calcul plus fin des ressources nécessaires, et quelques fois (rarement) propose des ajustements pour tenir compte des surcharges ponctuelles.

Méthodes d’approvisionnement en flux poussé

Les méthodes d’approvisionnement en flux poussé permettent de décider quoi mettre en fabrication et quand, à partir d’une connaissance de la demande dans le temps.

En Make-to-order, la demande est un carnet de demandes fermes, mais en Make-to-forecast, la demande est constituée des prévisions de vente. Le but est de prévoir quoi faire et quand, mais ensuite, si on gère en make-to-forecast, de lier les demandes réelles aux prévisions.
Il faut tout d'abord savoir combien de production lancer par semaine, pour équilibrer les coûts de stockages et les coûts de lancement.

Ensuite, il faut faire le lien entre les demande prévue et les commandes fermes, avec le mécanisme de disponible à promettre (Avalable To Promise, ATP)

Le modèle mathématique de base

Globalement, les méthodes utilisées permettent de résoudre le problème suivant :
  • [math]S_i[0][/math] Inventaire du produit en début d’exercice
  • [math]Cs_i[t][/math] Coût de stockage du produit durant la période t
  • [math]C_i [t] [/math]Capacité globale de production du produit en période t
  • [math]Cl_i[t][/math] Coût de lancement si une fabrication est faite en période t
  • [math]D_i [t][/math] Demande en produit durant la période t,
  • [math]S_i[t][/math] Inventaire du produits en fin de période t (Variable),
  • [math]X_i[t][/math] Quantité de produits fabriqués en période t, (Variable)

Contrainte de base (conservation des produits)

[math] \forall {i, t} \qquad \qquad \qquad S_i[t]= S_i[t-1]+ X_i[t]-D_i[t] [/math]
[math] \forall {i, t} \qquad \qquad \qquad S_i[t]>=0 [/math]

Objectif :
Pour un vecteur de décision [math]X[/math] donné, le coût de stockage [math]CS(X)[/math]se calcule comme :
[math]CS(X)=\displaystyle \sum _{t,i}{\displaystyle \frac {S_i[t]-S_i[t-1]}{2}\times Cs_i(t)}[/math]

Le coût de lancement [math]CL(X) [/math] est plus difficile à calculer. Il faut introduire une variable booléenne [math]\delta_i(t)[/math] indiquant si le produit est fabriqué en période i ou non.
[math]CS(X)=\displaystyle \sum _{t,i}{\delta_i(t)\times CL_i(t)}[/math]

La fonction objectif consiste alors à minimiser:

[math]Min \left( CS(X)+CL(X) \right)[/math]

Mais il faut lier les variables [math]X_i(t)[/math] et [math]\delta_i(t)[/math]

Ce problème est difficile à linéariser. C'est pourquoi on va le plus souvent utiliser des heuristiques.

Notons aussi que ce problème n'est pas le problème réel. En effet, dans ce modèle mathématique, on a un horizon fini alors que dans la réalité, l'horizon est évidemment glissant. Rien en prouve que la résolution à l'optimum de ce problème donne une solution optimale du problème réel.

Méthodes de résolution de base

Puisque ce problème est difficile à linéariser, on utilisera souvent des heuristiques. Ces heuristiques seront dans un premier temps présentées dans un contexte simplifié :
  • Les périodes sont des semaines,
  • il n’y a qu’un produit,
  • la capacité est ignorée,
  • les coûts de stockage et de lancement sont indépendants de la période.

Les demandes Di[t] sont soit des demandes fermes (rarement) soit des demandes prévisionnelles, issues d’un plan de production.
Dans la réalité, il faut tenir compte des capacités, des produits différents (synchronisation) et souvent d’autres éléments comme la disponibilité des matières premières, certaines ressources particulières, etc.

4 heuristiques et un algorithme optimal sont présentés.Une fiche technique permet de comparer ces méthodes sur un exemple simple.

Approvisionnement lot pour lot

Méthode triviale, consistant à prendre

[math] X_i [t]=D_i [t][/math]



Pour tout i et pour tout t. On a ici une méthode qui peut paraître très efficace, car elle induit le moins de stock possible. Il faut cependant s’assurer que les demandes Di [t] correspondent effectivement à des besoins réels et pas à un regroupement effectué dans le plan de production.
De plus, cette méthode engendre un coût de lancement par période.

Quantité fixe

Pour cette politique, on a toujours

[math]X_i [t]= \delta_i [t] \times Q_i [/math]


Où Qi est une quantité fixe, et δi [t] un booléen mis à 1 si la production de i est décidée durant la période t.

La quantité Qi peut-être une quantité économique, un lot de fabrication lié à un contenant, une quantité liée au procédé de fabrication (capacité d’un four par exemple) ou une quantité liée aux approvisionnements (utilisation d’un lot de matière première).

Pour appliquer cette méthode, il suffit d’utiliser les équations de conservation de produits et de positionner un ordre de fabrication dès que le stock tombe sous zéro.

Cette méthode a l’avantage de la simplicité. Souvent, les quantités Qi sont calculées avec les formules de la quantité économique de commande, ce qui fait un peu rapidement penser qu’elles sont économiques. De fait, on n’est que très rarement dans une situation où les hypothèses de la quantité économique de commande (formules de Wilson) s’appliquent, si bien que c’est une pseudo économie.

Période fixe

Dans cette approche, on pose :

[math] Q_i [t_i^0+k \times T_i]= \displaystyle \sum_{j = \min(0, (k-1)T_i)}^{k+1} D_i[j] [/math]


Ti est la période de réapprovisionnement du produit i

Et ti0 est la prochaine période de production

Cette approche est très simple, mais si les quantités dans les T périodes qui suivent un ordre de fabrication planifié changent, alors on risque la rupture.

L’avantage de cette approche, c’est qu’il est possible a priori d’équilibrer les fabrications en définissant les périodes initiales de production de chaque produit. On a ainsi un lissage implicite de la charge, qui permet de réduire les stocks de sécurité souvent utilisés pour pallier les retards dus aux accès simultanés aux ressources.

Là encore, on peut calculer les périodes en utilisant les formules de la période économique (formules de Wilson). Mais dans ce cas, d’une part les périodes ne sont que « soi-disant » économique car les hypothèses du modèle de Wilson sont rarement rencontrées, mais surtout, les périodes vont différer d’un produit à l’autre et on risque d’avoir des surcharges. Le plus simple est de prendre à priori la même période pour chaque produit, et d’équilibrer à priori les périodes initiales pour que la production soit lissée.

Équilibrage de période

Lors des calculs de la formule de Wilson (lot économique), on voit que la période économique est la période pour laquelle le coût de stockage est équivalent au coût de lancement. L’idée de l’équilibrage de période consiste à se rapprocher le plus possible de ces points d’équilibre. Les premières formules sont données pour un coût de stockage Cs indépendant de la période.

Supposons que l’on soit en rupture à la période t1, c'est-à-dire que :

[math] S[0]- \displaystyle \sum_{t=1}^{t_1} D[t] < 0 \le \sum_{t=1}^{t_1-1} S[0]-D[t][/math]



Dans ce cas, on va commander pour un nombre de période k qui vérifie


[math] k = \text{argmin} \left( \left| Cl - \displaystyle \sum_{j=0}^{k-1} \left( j+ \frac {1}{2} \right) Cs D[t_1+j] \right| \right) [/math]


Le terme Cl est le terme lié au coût de réglage pour le produit dans cette période t1 (supposé ici indépendant de la période).

Ensuite, pour chaque période couverte (approvisionnée lors de la fabrication en période t1), le coût de stockage porte sur les périodes précédentes.


Valeur de k Période couverte Coût du stockage
0 t1 [math] Cs*\textstyle \frac 12 *D[t1][/math]
1 t1 + (t1 + 1) [math] Cs*\left( \textstyle \frac 32 *D[t1+1]+ \textstyle \frac 12 *D[t1] \right)[/math]
2 t1 + (t1 + 1), (t1 + 2) [math] Cs*\left( \textstyle \frac 52 *D[t1+2] +\textstyle \frac 32 *D[t1+1]+ \textstyle \frac 12 *D[t1]\right)[/math]
i t1 + (t1 + 1), ..., (t1 + i) etc...



Pour les commandes suivantes, on procède de la même manière.

Notons que le choix du coefficient est arbitraire. En effet, ce choix fait les hypothèses suivantes :

  • Le coût de stockage en semaine t de X produits fabriqués en semaine t est de Cs(t)X, c'est-à-dire que l’on considère que le coût de stockage commence en début de semaine de production, alors que la production se fera sans doute en milieu de semaine, en moyenne. Cette hypothèse est justifiée par le fait qu’on considère qu’une grande partie du coût de stockage est imputée à la matière première qui doit être présente en début de période.
  • Le coût de stockage en semaine t de X produits consommés en semaine t est de ½*Cs*X, c'est-à-dire que l’on positionne la demande en milieu de semaine, en moyenne (plus facile à justifier).

On peut réécrire la formule si les Csi[t] varient suivant la période.


[math] k = \text{argmin} \left( \left| Cl_i \times D_t - \displaystyle \sum_{j=0}^{k-1} Cs_i[t_1 + j] \left[ \frac 12 D_i[t_1+j] + \sum_{l = j + 1}^{k-1} D_i[t_1 + l] \right] \right| \right)[/math]



Autrement dit,

  • Pendant la période t1 (donc j=0) on stocke ½ Di[t1], et toutes les demandes pour les périodes t1 + 1 jusqu’à (t1 + k - 1),
  • Pour la période t1 + k - 2, on stocke la dernière période (Di +[t1 + k - 1]) et la moitié de t1 + k - 2,
  • Pendant la période t1 + k - 1, on ne stocke que ½ Di[t1 + k - 1].

On peut montrer que les notations sont équivalentes, la demande d’une période t1+l étant stockée les l premières périodes (de t1 à t1 + l - 1), plus la moitié de la période t1 + l.

Optimisation globale en programmation dynamique

Cette méthode a été proposé en 1958 par Wagner et Whitin, dans un article important : dynamic version of the economic Lot size problem, Management science, 1958.
Une copie est visible a :

http://home.lst.ncu.edu.tw/~barry/giim/1%20Dynamic%20version%20of%20the%...

C’est une application classique de la programmation dynamique . L’idée de base est que la solution optimale pour approvisionner k périodes consiste à approvisionner le mieux possible l périodes, puis à fabriquer pour les k-l restant. Le tout est de trouver le meilleur l…

Notation :

  • Zk Meilleure politique pour les k premières périodes
  • C k1 K Coût si on fabrique en période k1 toute la demande restante (jusqu’à K)



[math]C(k_1,K)= Cl[k_1]+ \displaystyle \sum_{t = k_1}^K Cs_t \left[ \frac 12 D[t] + \sum_{l = t + 1}^K D[l] \right]= Cl[k_1]+ \displaystyle \sum_{j=0}^{K-k_1} Cs_t \left( \frac 12 +j \right)* D[t] [/math]



Le premier terme est le coût de lancement en période k1 (puisque l’on fabrique).

Le second terme exprime que dans chacune des périodes de k1 à K, on encoure un coût de possession égal au coût de possession de tout ce qui reste à vendre, plus la moitié de ce qui sera vendu dans la période.

On peut alors écrire :

[math]Z_1=C_{1,1}=Cl[1]+ \displaystyle \frac 12 Cs_1 D[1][/math]


Et

[math] \forall k > 1 \qquad \qquad \qquad Z_k = \min_{0 < l < k} [Z_l + C_{l+1, K}][/math]



Donc en connaissant Z1, on peut calculer Z2, puis avec Z2 , Z3, on calcule Z3 , etc.

Cette méthode très simple donne la solution optimale. Cependant, cela reste une illusion pour deux raisons :

  • Si quoique ce soit change dans les D(t) du futur, la solution ne sera plus optimale, et dans le bout de l’horizon, les connaissances sur les D restent souvent incertaines,
  • Même si les demandes étaient bonnes, le modèle assume qu’au-delà de la période T, il n’y a plus de demande, ce qui est évidement faux.

Donc la solution obtenue est l’optimum du modèle, mais la réalité diffère du modèle. Il faut être prudent.

Gestion des OF et du Disponible pour promettre

En flux poussé, chaque production décidée fait l’objet de la création d’un ordre de fabrication. Cet ordre est proposé par le calcul précédent. Tant qu’un opérateur n’a pas validé les ordres, cela reste une proposition. Une fois validés, les OF créés seront en attente, puis une fois réellement lancés, ils seront actifs avant d’être complétés.

Notons que la date de l’ordre est la date prévue de livraison et qu’il faut prévoir dans tous ce chapitre qu’on ait le temps de fabriquer cette quantité entre la date du jour et la date de tombée théorique.

Lorsque cette gestion des approvisionnements est effectuée en flux poussé sur le niveau « 0 » de la nomenclature (produits finis, directement vendus à l’extérieur), il faut ensuite faire le lien entre les commandes fermes qui arrivent régulièrement et les ordres de fabrication prévisionnels, issus des prévisions de commandes. Le mécanisme utilisé est le disponible pour promettre, ATP (Available To Promise en anglais).


Le mécanisme ATP assure le lien entre le monde du réel (commandes fermes) et le monde du prévue (prévision de vente ayant servi pour la création des ordres. Il utilise un tableau des réservations.



Définition tableau des réservations:

Le tableau des réservations représente la partie prévue (prévision de vente, stock prévu, ordre passé) et la partie réelle (ordres passés, commandes acceptées et ATP). Les ordres passés sont en même temps le planifié et le réel.

Définition ATP

Entre deux ordres de réapprovisionnement, l’ATP est égale au stock initial certain de la période (donc le stock actuel pour la première période et ensuite la quantité réapprovisionnée) moins la somme des commandes fermes enregistrées sur la période.

Exemple:





Sur cet exemple, la politique de flux poussé sur prévision est à quantité constante (250 unités) et sur un stock de sécurité de 70 (si on descend au dessous de 70, on prévoit l’arrivée d’une commande de 250).

  • ATP(1)=240-(45+65+30+35)=65
  • ATP(3)= 240-(45+65+30+35)=65 (entre les mêmes ordres, donc même calcul)
  • ATP(7) = 250-(10+15+5)=220

Si une commande de 50 arrive en semaine 5, on va l’accepter, mais on ne changera pas les ATP entre les périodes 1 et 4. On changera ATP(5..10)=190. En effet, il n’y a aucune raison d’anticiper la commande de la semaine 5 et de priver d’autres clients de la possibilité d’avoir des produits dans les semaines 1 à 5.

L’ATP peut conduire à des situations curieuses comme la suivante :

Exemple:





Nous sommes arrivés en semaine 3, le futur commence en semaine 4. Nous avons reçu des commandes et le stock réel en fin de semaine 3 sera : 240-60-65-50=65. Donc ATP(4)=65-40=25 puisque 40 unités sont d’ores et déjà acceptées. Pour la période du 5 au 10, 235 produits ont été acceptés. Donc il reste ATP (6)=250-235=15.

Si un client vient et demande 20 produits pour la semaine 6, on doit lui refuser. En effet, accepter serait anticiper la demande de la période [5..10] sur la période [1..4] et donc s’éloigner des prévisions. En revanche, si rien ne se passe la semaine prochaine, le stock initial de la période 5 passera à 275, et l’ATP(6) remontera à 40. La commande sera alors acceptée.

Cela ne veut pas dire que l’on ne pourra pas accepter la commande dès la semaine 3, cela veut seulement dire qu’il faudra l’autorisation d’un gestionnaire.

De manière globale, si une commande d’un client fait passer l’ATP en négatif, il faut une décision de gestionnaire :

  • Satisfaire une demande partielle et reporter le solde,
  • Refuser la commande,
  • Accepter la quantité ATP possible,
  • Décaler d’autres clients.

Master production schedule

EN GROS


Sur un horizon au moins égal à deux fois le cycle total de prévision, le PdP donne, produit par produit et semaine par semaine
  • la prévision de vente (désagrégation par période et famille du Plan de production);
  • la projection de stock;
  • les commandes rentrantes (par le lottissement).
Il servira entre autre pour évaluer la charge induite (méthode globale, par nomenclature de capacité ou nomenclature décalée), et pour faire le lien entre le prévisionnel (le plan) et la réalité (les demandes réels des clients) au travers du mécanisme de l'ATP (avalable to promize)

Contexte


le Master production schedule (ou MPS) se traduit par Plan directeur de production ou PdP en français.
Le plan de production a créé un plan prévisionnel des besoins par famille de produits finis et par grande période de temps. C'est le point d'entrée du PdP. Le PdP travaille sur les besoins indépendants. Un besoin indépendant est un besoin qui provient de l'extérieur de l'entreprise. Généralement, les besoins indépendants portent sur les produits de niveaux 0 de nomenclature. Lorsque les produits sont emballés ou légèrement adaptés pour un client final (différenciation retardée) le PdP peut porter sur le niveau commun, les spécifications se faisant alors simplement au moment de l'expédition.
Les étapes de la création du PdP sont les suivantes :
  • désagrégation par période
  • désagrégation par famille
  • lotissement pour générer les ordres de fabrication
Chacune de ces étapes utilise les données techniques gérées par le logiciel MRP.

désagrégation par période


Il s'agit simplement de décomposer une demande planifiée sur des périodes larges en demandes sur des sous périodes. Ceci peut poser deux types de problèmes:
  • Les sous périodes ne sont pas un découpage des périodes
  • Les sous-périodes ne sont pas équivalentes

Le premier cas correspond au découpage d'un mois en semaines. Autant le découpage d'une année en mois est trivial (il n'y a pas de mois à cheval entre deux années) autant le découpage des mois en semaines peut poser problème pour les semaines à cheval entre deux mois.
Le second problème provient du fait que certaines sous périodes peuvent avoir un poids différent. Par exemple, une semaine peut comporter 2 jours fériés et donc la demande ou la capacité de production vont différer.
exemple

mois décembre 2008janvier2009février2009mars 2009
jours 31 3128 31
semaines 5 44 5
jours ouvrables 21 2020 22
demande famille A 1000 1000900 1000


Pour établir la désagrégation, il est souvent plus simple de décomposer à partir d'une unité commune (le jour ouvrable par exemple) et d'effectuer un calcul simple de règle de trois.
Exemple:
semaine 1-12-088-12-0815-12-0823-12-0829-12-0805-01-0912-01-0919-01-0926-01-0902-02-0909-02-0916-02-0923-02-0902-03-2009
demande 238238238143143250250250250225225225225227

On constate qu'alors que si la demande mensuelle pouvait sembler rationnelle et régulière, la désagrégation est loin d'être aussi lissée. Sur cet exemple, il n'y a pas de semaine à cheval entre deux mois.

désagrégation par famille


La désagrégation par famille est plus délicate, car elle peut faire appel à plusieurs type de données :
  • La demande prévue par sous-période
  • le ratio donnant le pourcentage représenté par chaque produit fini de la période,
  • les commandes fermes déjà reçues

Les demandes fermes reçues viennent perturber le système. On peut les ignorer et travailler uniquement avec les ratios (ce qui sous-entend que l'on est certain des ratios) ou bien n'appliquer les ratios que sur la différence entre la demande planifiée et les commandes acceptées. Si on se contente des ratios, sur les premières périodes, on peut se retrouver avec une contradiction entre la demande planifiée et les commandes acceptées.

Exemple:
Soit le plan de production suivant:
Exemple:


semaine 05-01-0912-01-0919-01-0926-01-0902-02-0909-02-0916-02-09
demande famille A250250250250225225225

Avec une famille A de 3 produits, A1, A2, A3, de ratios théoriques prévus 0.5, 0.3, 0.2.
La désagrégation par famille la plus simple consiste à appliquer le ratio à chaque période.

semaine 05-01-0912-01-0919-01-0926-01-0902-02-0909-02-0916-02-09
produit A1 -50%125125125125112112112
produit A2 -30% A275757575676767
produit A3 -20%50505050454545

Mais il se peut que certaines commandes aient déjà été enregistrées, comme par exemple :


semaine 05-01-0912-01-0919-01-0926-01-0902-02-0909-02-0916-02-09
produit A1 50%80405020404030
produit A2 30%10303020103010
produit A3 20%30202010153020

Dans ce cas, il peut être avantageux de n'appliquer la désagrégation par ratio qu'à l'écart entre le prévision de la famille et les commandes déjà enregistrées par cette famille. Dans ce cas, la désagrégation donne :


semaine 05-01-0912-01-0919-01-0926-01-0902-02-0909-02-0916-02-09
produit A1 50%145120125120122102112
produit A2 30%49787580596759
produit A3 20%56525050435553

Par exemple, la valeur de 145 pour le produit A1, en semaine 05-01-2009 est calculée comme [math]145=0.5*(250-(80+10+30))[/math]. Il n'y a pas de bonne ou de mauvaise méthode. En revanche, le choix d'appliquer les ratios sur les prévisions ou sur l'écart entre les prévisions et les commandes doit être discuté et conscient. Dans tous les cas, il faut faire attention aux incohérences.

lotissement


Le lotissement (établissement des lots ou ordres de fabrications, quelquefois appelé lot sizing) va comporter deux grandes étapes :
  • Transformer les besoins bruts exprimés à une date donnée en besoins nets,
  • Transformer les besoins nets en ordres à recevoir (ordre de fabrication)
. Le besoin net tient compte du besoin brut (provenant de la désagrégation des prévisions) mais aussi du stock initial (produits possédés) et de certains ordres déjà passés, sur lesquels on ne souhaite pas faire de modifications.
En effet, on ne part jamais d'une page vide, et un Plan Directeur de Production (MPS a sans doute été fait à une période antérieure). Il faut s'interroger sur le fait que l'on accepte ou pas de remettre en cause des ordres émis à la période précédente. On distingue généralement 3 zones distinctes :
  • Zone gelée : on conserve les ordres antérieurs et au niveau du calcul de besoin net, on les incorpore comme des arrivées de stock.
  • Zone molle : on n'incorpore pas les ordres antérieurs dans le besoin net, mais lors de l'étape de lotissement, on conservera ces ordres en lieu et place et éventuellement on modifiera les quantités.
  • Zone libre: on oublie tout.
La première zone correspond à des ordres qui sont déjà en fabrication, ou dont les composants sont en fabrication. Il n'est plus possible de les modifier, on ne pourrait pas disposer des composants à temps.
Une fois le calcul des besoins nets fait, on applique les méthodes de lotissement vues dans la partie sur l'approvisionnement en flux poussé.
Remarque
À la fin de cet étape, on dispose des ordres à recevoir, en date du moment ou ils doivent être livrés. On n'a pas encore opéré de décalage pour tenir compte du fait que la production n'est pas instantanée.

Calcul de la charge induite par le PdP

Le PdP donne la liste des besoins en produit fini par période. Il peut être intéressant de calculer la charge induite sur les (voire sur DES) postes de charges. Trois approches sont possibles :

  • Méthode de la charge globale,
  • Méthode de la nomenclature de capacité,
  • Méthode des nomenclatures décalées.
  • Méthodes non agrégées
La première méthode donne une idée très générale de la charge induite, en heure de travail, en heure totale (incluant les heures liées à des tâches indirectes, sans valeur ajoutée) ou même en coût. La seconde donne une idée plus fine de la charge, poste de charge par porte de charge, mais elle ne tient pas compte du fait que tous les composants d’un produit 1 fabriqué en semaine t ne sont pas faits la même semaine. La troisième méthode tient compte de ce décalage. Pour chacune des méthode, le calcul de la charge induite (de la demande de capacité) se fait en multipliant les charges unitaires par la taille du lot ou de la demande.
Notation
  • Composant [math] i [/math],
  • Durée opératoire unitaire sur le poste de charge [math]j, p_{i,j}[/math] ,
  • Taille moyenne d’un lot de composant [math]i, Q_{i }[/math],
  • Lead time du produit [math]i, L_i[/math],
  • Temps de réglage sur le poste de charge [math]j[/math] [math]r_{i,j}[/math],
  • ensemble des composants [math]i[/math], H_i,
  • Nombre de composant de type [math]l[/math] utilisé pour un composant [math]i[/math], [math]n_{i,l}[/math],
  • Quantité de produit [math]i[/math] fabriqué à la période [math]t[/math], [math]x_{i,t}[/math]

Méthode globale

Pour un composant donné, la durée de production du produit ou composant [math]i[/math]sur un poste de charge [math]j[/math] est [math]t_{i,j}[/math], calculé comme :

[math]t_{i,j}= p_{i,j}+\displaystyle \frac {r_{i,j}}{Q_i}[/math]

Cette durée incorpore le temps de production et le réglage au prorata de la taille moyenne du lot de composant. Si sur un poste de charge le réglage est dépendant de la séquence, cette durée est forcément approximée.
Pour un composant donné, la durée de production [math]t_i[/math]du produit ou composant [math]i[/math] est calculé comme :
[math]t_i= \displaystyle \sum_{j}{t_{i,j}}[/math]

Cette durée incorpore tous les temps de production directs nécessaire pour fabriquer le composant à partir de ses composés. Cette valeur permet de calculer la durée totale de production, [math]tt_i[/math].
Définition : la durée totale de production donne la somme de toutes les durées opératoires et les durées de réglages pour réaliser un produit, ainsi que toute la hiérarchie de composant qu’il utilise.
Pour un composant acheté ou approvisionné, [math]tt_i=0[/math].
Pour un composant de niveau de nomenclature [math]k[/math], on a :
[math]tt_i= \displaystyle \sum_{l \in H_i}{n_{i,l} \times tt_l}+t_i[/math]

Donc la durée totale de production d’un produit de niveau [math]0[/math] correspond à la somme de tous les temps de production de tous ses composants.
C’est cette durée [math]tt_i[/math].qui est utilisé pour évaluer la charge induite par un PdP. Cette charge n’est évidemment pas liée à un poste de charge, mais donne une vision globale.
Comme il s’agit d’une durée sur les machines (coût direct), on peut la majorer pour la ramener à un volume de travail, en incluant un ratio de durées indirectes par heures de travail. Pour cela, on utilise l’historique (année précédente le plus souvent).
[math]K=\displaystyle \frac {\displaystyle \sum {heures effectuées année t-1}}{\displaystyle \sum_i{x_{i,année t-1}\times tt_i}} [/math].

Remarque
Si on veut obtenir à partir des durée totale de production [math]tt_i[/math] une idée de la charge induite sur un poste de charge donnée, une méthode grossière consiste à appliquer en aveugle un ratio unique par poste de charge, calculé comme le ratio du temps travaillé sur ce poste l’année précédente divisé par la somme de tous les temps travaillés sur tous les postes de charges. Cette méthode est simple mais particulièrement fausse car elle ne tient pas compte des spécificités par produit.
Si on cherche à aller par poste de charge, il faut utiliser une nomenclature de capacité.

Nomenclature de capacité

La nomenclature de capacité consiste à utiliser directement les durées de production par poste de charge [math]t_{i,j}[/math] et à sommer ces valeurs sur toute la nomenclature afin de connaitre, poste de charge par poste de charge la durée de travail direct nécessaire pour faire un produit fini [math]i[/math].
Pour un composant approvisionné : [math]\forall{j}, tt_{i,j}=0[/math]
Pour un composant autre [math]\forall{j}, tt_{i,j}=t_{i,j}+\displaystyle \sum_{l in H_i}tt_{l,j}[/math]
Cette méthode permet, à partir d’un PdP, de sommer sur toutes les périodes, avec tous les produits finis, la somme des charges pour chacun des postes de charge.
Remarque : cette méthode est juste en valeur totale (puisque toutes les charges sont correctement comptabilisées), mais elle ne tient absolument pas compte du fait que les composants ne sont pas tous fait durant la même période, et que même pour un composant donné, toutes les opérations ne sont pas faites dans la même semaine. D’autre part, les lotissements ne sont pas effectués au stade du PdP et donc les besoins ne sont même pas placés à la date ou la production se fera. Donc si cette méthode peut donner une idée globale de la charge de travail induite par un PdP, il ne faut absolument pas en déduire que le plan est faisable ou non.
Si on veut avoir plus de précision sur les dates, il faut utiliser les nomenclatures décalées.

Nomenclature décalées

Les nomenclatures décalées sont identiques aux nomenclatures de capacité, à ceci prêt que l'on calcule des [math]t_{i,j}[/math], mais en fonction des périodes de temps. On admet généralement l'hypothèse que chaque opération sera uniformément répartie durant la plage de travail (sur le lead time).
Si le lead time est [math]L_i[/math], et qu'il y a M opérations, la fenêtre de travail pour la production du produit i [math] [s, f][/math] pour starting et finishig date, alors la fenêtre d'exécution [math]F_i[/math] de l'opération j de la gamme sera :

[math] F_{i,j}=\left[ s+ L_i \times \displaystyle \frac {\displaystyle \sum_{k=1}^{j-1}{t_{i,k}}}{\displaystyle \sum_{k=1}^{M}{t_{i,k}}} ; s+ L_i \times \displaystyle \frac {\displaystyle \sum_{k=1}^{j}{t_{i,k}}}{\displaystyle \sum_{k=1}^{M}{t_{i,k}}} \right] [/math]

et l'intensité de travail par période [math]I_i[/math] est tout simplement:
[math] I_i= \displaystyle \frac {\displaystyle \sum_{k=1}^{M}{t_{i,k}}} {L_i}[/math]

Cette intensité est évidement indépendante de l'opération effectuée, donc du poste de charge,à cause de l'hypothèse de linéarité de la demande.
Dans la nomenclature décalée, pour chaque période de temps t de l'intervalle [math][s,f][/math]la durée de production relative sera donc :
[math]t_{i,j,t}= \left([t]\cap F_i\right) \times I_i[/math]

Méthodes non agrégées

Les trois premières méthodes sont des méthodes dites agrégées. Elles utilisent pour résoudre un problème à un niveau donné (évaluation de la capacité engendré par un PdP global) des données issues des niveaux de décisions "inférieurs" en en faisant en quelque sorte une synthèse.
La notion d'agrégation désagrégation est une notion chère aux informaticiens. Elle signifie en ce qui concerne la planification de production qu'un plan est toujours soit un sous ensemble d'un plan plus général, soit lui même décomposable en plan plus petit.
Force est de constaté qu'en entreprise, il se développe des connaissances (issues de l'expérience, de l'observation, etc.) qui sont spécifique à un niveau décisionnel et ne proviennent pas de niveaux inférieur.
Exemple :

  • Une entreprise de roulement calculait seulement le chiffre d'affaire hebdomadaire et connaissait sa charge,
  • Une autre entreprise de moteur électrique avait une formule d'une somme pondérée des besoins par hauteur d'axe (un poids différent par hauteur d'axe) et le résultat final permettait de savoir si la capacité suffisait ou pas,
  • Une entreprise d'injection estimait le volume de matière première nécessaire (en mètre cube) et en déduisait si la capacité suffisait ou non.

Ces exemples sont nombreux, et il est important dans une entreprise de chercher si quelqu'un dispose de ce type de connaissance. Une connaissance bien assise sur des années d'expérience est souvent plus précise qu'une agrégation de données.

Exemple de calcul de charge induite

Soit un produit A, composé de deux produits B et d'un produits C, le produit B est fait d'un produit D acheté, et le produit C est fait d'un produit E et d'un produit D tout deux achetés.
Le fichier article indique :
Produit A une quantité économique de commande de 40,et un Lead time de 4 semaines.
Produit B une quantité économique de commande de 100,et un Lead time de 3 semaines.
Produit C une quantité économique de commande de 100,et un Lead time de 3 semaines.
Le fichier gamme indique
Produit A 3 opérations sur les postes de charges, PC1, PC2 et PC3, avec des durées de production unitaire (en minutes) de 10, 15 et 12, et des temps de réglages de 120, 80 et 60.
Produit B 4 opérations sur les postes de charges PC4, PC3, PC5 et PC4, de durées de production unitaire en minutes de 10, 12, 10 et 5, et de durées de réglage 60, 80, 60 et 60.
Produit C 3 opérations sur les postes de charges PC4, PC5 et PC6 de durées de production unitaire en minutes de 10, 12 et 20 et de durées de réglage 60, 80 et 60.

Le pdp indique des demandes de (10, 10, 10, 20, 20, 20, 10, 10, 10, 20) dans les 10 prochaines périodes.
L'historique indique que l'an dernier, les 8 principaux postes de charges ont contribué à la charge globale avec des atux (0,1; 0,1; 0,2; 0,2; 0,1; 0,1; 0,1; 0,1)

Calcul de capacité globale


Le calcul des charges globale des différents produit donne :
Produit A : [math] 10+15+12+\displaystyle \frac{\left(120+80+60 \right)}{40}= 43.5[/math]
Produit B : [math] 10+12+10+5+\displaystyle \frac{\left(60+80+60+60 \right)}{100}= 39.6[/math]
Produit C : [math] 10+12+20\displaystyle \frac{\left(60+80+60 \right)}{100}= 44[/math]
Soit pour le produit A un total de
Produit A : [math] 43.5+2 \times 39.6 + 44 = 166.7[/math]
Si on souhaite projeter cela sur les postes de charge, on obtient:


PC1PC2PC3PC4PC5PC6PC7PC8
16.6716.6733.3433.3416.6716.6716.6716.67

Évidement, il est étonnant d'avoir un produit A qui utilise les postes de charges 7 et 8 alors qu'aucun des composants ne le fait. Cette vision est trop globale.

Nomenclature de capacité


Le calcul de la charge par poste de charge se fait en additionnant pour chaque poste de charge la durée opératoire et un pourcentage du réglage. On obtient :





ProduitPC1PC2PC3PC4PC5PC6total
A131713.500043.5
B0012.816.210.6039.6
C00010.612.820.644
total A131739.1433420.6166.7

Cette table permet de calculer semaine par semaine la charge induite "théoriquement" sur chaque poste de charge. Cela règle le problème de l'utilisation des postes 7 et 8, mais pas le problème de l'étalement dans le temps.

Nomenclature décalées

Pour le produit A, on peut calculer la charge induite pour un produit A donné sur les 3 postes de charges, durant les 4 semaines du lead time:
Étant donné les ratios calculés précédement, les fenêtres pour les 3 postes de charges sont :
PC1: [math][0; 1,2][/math], PC2:[math] [1,2; 2,8][/math], PC3: [math][2,8; 4][/math]
Il s'en suit pour A une charge induite par semaine de :


pour ASemaine S-3semaine S-2semaine S-1 Semaine S
PC110.88 2.1200
PC208.758.250
PC3002.6210.88

Les sommes par périodes sont évidement toute égales à [math]10.88[/math], soit le quart de la charge, et les sommes par lignes sont les charges des postes de charges. Le même calcul doit être fait pour B et C.




Pour Bsemaine S-2semaine S-1 Semaine S
PC410.605.6
PC32.610.20
PC5037.6

Pour Csemaine S-2semaine S-1 Semaine S
PC410.600
PC54.18.70
PC605.914.7

Soit globalement:


Global AS-6S-5S-4S-3S-2S-1S
PC100010.882.1200
PC200008.758.250
PC35.220.40002.6210.88
PC431.8011.20000
PC54.114.715.20000
PC605.914.70000

Calcul des Besoins Nets (CBN)

Contexte


Le calcul des besoins nets est le cœur de la méthode MRP. En partant du Plan Directeur de Production, cette mécanique va calculer niveau de nomenclature après niveau de nomenclature :
  • les besoins bruts de composants,
  • Les besoins nets en composants,
  • Les ordres de fabrication de composants
  • Le cas échéant les ordres d'approvisionnement

Données manipulées

Données manipulées


Le CBN va créer le fichier des ordres de fabrications. Chaque ordre de fabrication créé devra comporter :
  • Le produit concerné,
  • La quantité à fabriquer
  • la date de début de l'ordre et la date de fin de l'ordre.
Le calcul de la date de fin de l'ordre est facile, puisque c'est la date du beoin net exprimé. En revanche, la date de déut est plus complexe. C'est un des point les plus controversés du système MRP. On utilise le Lead time, qui est une information du fichier article. Ce lead time donne la durée estimée entre le début d'un ordre et la fin d'un ordre pour ce produit. Si ce principe est controversé, c'est que le lead time est indépendant de la quantité de produits à fabriquer. Évidement, en théorie, c'est idiot : on ne met pas le même temps pour fabriquer 100 produits que pour fabriquer 1000 produits. En pratique, le calcul des besoins est utilisé pour des productions " MAKE to FORECAST". Dans ce contexte, les quantités à produite sont suffisamment stables pour justifier l'utilisation d'une valeur unique. Le lead time est généralement calculé de la manière suivante :
[math]LD_i=\left(\displaystyle\sum_{j=1}^{m_i}{\left( p_{i,j} \times Q +r_{i,j}\right)}\right) \times \alpha[/math]
Avec
[math]LD_i[/math]Lead time pour le produit i
[math]p_{i,j}[/math] Processing time unitaire d'un produit i pour l'opération j
[math]{m_i}[/math] Nombre d'opérations nécessaires pour le produit i
[math]r_{i,j}[/math] Le temps de réglage du produit i pour l'opération j
[math]\alpha[/math] Un coefficient de sécurité (supérieur à 1, malheureusement souvent supérieur à 3...

Remarques :
Il n'est même pas indispensable que le coefficient [math]\alpha[/math]soit supérieur à 1. On pourrait imaginer qu'il soit inférieur à 1, si les opérations successives se chevauchent. Dans ce cas, au lieu de s'ajouter, les différentes tâches se font en parallèle, et ce qui compte, c'est :
  • La durée opératoire J [math]\left( p_{i,J} \times Q +r_{i,J}\right)[/math] la plus longue (temps menant)
  • la durée pour pouvoir commencer le travail [math]\left(\displaystyle\sum_{j=1}^{J}{ p_{i,j} + r_{i,j}}\right)[/math] (arrivée de la première pièce,
  • La durée pour finir le travail sur la dernière pièce [math]\left(\displaystyle\sum_{j=J}^{m_i}{ p_{i,j}}\right)[/math].

Et même là, on pourrait diminuer cette durée en faisant les réglages en temps masqué, car les réglages ne nécessitent pas tous d'avoir une pièce d'essai.

Ensuite, le CBN va utiliser les nomenclatures. En effet, un ordre de fabrication débutant en période [math]t[/math] va engendre un besoin pour tous ses composants (achetés ou fabriqués) en période [math]t[/math]. Dans certains cas, le fichier Gamme va préciser à quel moment précis de la gamme certains composants vont intervenir. Dans ce cas, le besoin en composants peut être émis à une période calculée entre la date de début de l'ordre et la date de fin. On utilisera cette technique lorsque le lead time est si long qu'il serait inutile d'approvisionner tous les composants au début.

Remarques :
Il est important de noter que le fait que les composants soient demandés ou non au début de l'ordre a un autre impact en gestion de la fabrication. Faute d'informations spécifiques, la majeure partie des logiciels refuseront d'émettre les documents de fabrication (et donc de lancer un ordre de fabrication) si tous les composants de la nomenclature ne sont pas disponibles en stock. Donc si ils ne sont pas nécessaires dès le début, il est préférable de l'indiquer.

l'Agorithme

Algorithme de base

L'algorithme du Calcul des Besoins Nets est le suivant:
début: Calculer les besoins nets du niveau [math]0[/math].

    Tant qu'il reste des niveaux de nomenclature
    faire : prendre le niveau suivant [math]i[/math]
      calculer le début des Ordres du niveau [math]i-1[/math]
      pour chaque ordre de niveau [math]i-1[/math] induire les besoins bruts en composants de niveau [math]i[/math]
      incorporer si nécessaire les besoins indépendants du niveau [math]i[/math]
      Pour chaque composant de niveau [math]i[/math], calculer les besoins nets puis bruts(avec stock initial et ordres déjà passés)
      Pour chaque composant de niveau [math]i[/math] générer les ordres en date de réception
    fin
fin
Dans cet algorithme, la méthode de lotissement utilisée est une donnée du fichier Articles. Autrement dit, la méthode de lotissement peut changer d'un composant à l'autre.
Cet algorithme passe donc tous les ordres de niveau [math]0[/math] et calcul les dates de début des ordres, il en déduit les besoins dépendants pour tous les composants de niveau 1. Il intègre ensuite, si besoin, certains besoins indépendants pour produire les besoins bruts. Ensuite, avec les stocks initiaux et certaines entées prévues (ordres antérieurs que l'on ne souhaite pas modifier), il produit les besoins nets. À partir de ces besoins nets l'algorithme calcule les ordres de fabrication à créer pour satisfaire les besoins nets.

Mode de fonctionnement


Cet algorithme peut fonctionner en mode création. Dans ce cas, on fait fort peu de cas du passé, et essentiellement on ne touche pas aux ordres de fabrication déjà lancés. Pour tous les autres ordres, on utilise au choix l'une des heuristiques vues dans cette partie. Mais dans ce cas, d'une occurrence d'exécution de l'algorithme à l'autre, les ordres sont beaucoup modifiés.
On peut appliquer cet algorithme uniquement sur les écarts de prévision entre le PdP de la période précédente et le PdP courant (principalement si les écarts son positifs). Dans ce cas, on cherche généralement A NE PAS DÉCALER les ordres créés, mais seulement à modifier les quantités requises. Ainsi, on a une solution plus stable.

Limites


La première limite de l'algorithme est évidement qu'il est a capacité infinie, autrement dit qu'il ne calcule pas la charge induite sur les ressources des différentes décisions qu'il prend. Il est clair que si tous les ordres de fabrication sont lancés sur une ressource en même temps, cette ressource va saturer et l'entreprise prendra du retard.
La justification de la capacité infinie, c'est que si le plan de production est bien lissé, alors les niveaux subséquents devraient l'être aussi. C'est en particulier le cas si toutes les désagrégations se font sur une base "régulière" et que l'algorithme de lotissement est "lot pour lot". Dans ce cas, chaque semaine (ou chaque période), on lance un peu de tous les produits. Néanmoins, c'est rarement le cas car cela engendre trop de changements de références sur les machines.
On pourra aussi avoir un résultat "directement équilibré" si l'algorithme de lotissement est "production périodique" et que les phases ont été suffisamment équilibrées. Dans ces cas, on produit toujours les mêmes produits dans les mêmes périodes, et l'équilibre est pratiquement toujours conservé (sauf en cas de changement important de ratio de production).
En revanche, si on cherche à optimiser chaque composant avec un algorithme "localement optimal", on tombe très rapidement dans des solutions ou la charge n'est pas lissée dans le temps.
Le second problème de l'algorithme, c'est qu'il peut générer sans aucune difficulté des ordres de fabrication infaisables (quelques fois placés dans le passé, ou mis de telle manière qu'il est impossible d'approvisionner les composants à temps pour faire le travail). Selon les logiciel, ces ordres sont détruits ou accumulés en semaine "0").
Finalement, le dernier problème reste le lead time` qui est souvent peu pertinent.

References


P.J. Billington, J.O. McClain and L.J. Thomas, Mathematical programming approaches to capacity-constrained MRP systems: review, formulation and problem reduction. Mgmt. Sci. 29 (1983), pp. 1126–1141
J. Orlicky, Material Requirements Planning. , McGraw-Hill, New York (1975).
Anders Segerstedt, Formulas of MRPnext term, International Journal of Production Economics, Volumes 46-47, December 1996, Pages 127-136

La planification opérationnelle (ordonnancement)

Ordonnancement de la production

L'ordonnancement est la phase de planification la plus proche de l'atelier. Ordonnancer consiste à organiser dans le temps de manière plus ou moins précise la réalisation des travaux prévus dans la phase de planification tactique, en utilisant les ressources mises à disposition.

La représentation d'un ordonnancement

L'ordonnancement de la production est une planification détaillée de la succession des tâches des différents ordres de fabrication sur les machines (ou autres ressources).Pour communiquer cette planification, il faut la représenter.
Le diagramme Gantt, en anglais GANTT CHART est l'outil le plus utilisé. On le trouve aussi sous les noms de tableau mural ou diagramme à gouttière. On trouve plus rarement un diagramme de type "line balance chart".

Diagramme Gantt


Ce diagramme représente généralement :
  • Le temps en abscisse
  • Les différentes ressources en ordonnée
  • chaque Ordre de fabrication est décomposé en autant de "barres" de la même couleur que de tâche, de longueur proportionnelle à la durée de la tâche,
  • Chaque ligne (ressource) contient la succession des tâches devant être faites sur cette ressource,
  • Une symbolique particulière représente les zones durant lesquelles les ressources sont "inactives",
  • Une ligne verticale permet de visualiser la date courante.

Dans l'exemple suivant, les zones non travaillées sont en rose, il y a 4 ordres de fabrication (un par couleur) et ils ont chacun 4 opérations distinctes.

Le diagramme de Gantt a beaucoup d'avantage, mais:
  • Il ne permet pas de visualiser les travaux en attente d'une machine.
  • Il ne permet pas de voir l'encours de production.

En effet, pour visualiser les travaux en attente, il faudrait sélectionner une date et extraire du diagramme les ordres de fabrication en attente de chacune des machines.
Ce qui est assez facile, c'est d'extraire un ordre de fabrication et de ne représenter que celui ci. On met ainsi en évidence les attentes de cet ordre.

  • Il ne permet pas facilement de visualiser la situation actuelle

Il est facile de tracer une ligne verticale pour modéliser la date actuelle (dans l'univers de la planification) , mais il faut compléter avec une visualisation de la situation réelle à cette date. Dans la réalité, certaines tâches sont commencées mais non finies, certaines tâches ont été inversées, etc.

Dans cet exemple simple, la seconde machine est un peu en avance, la troisième un peu en retard.
De fait, le diagramme Gantt dans sa partie visuelle met l'accent sur un taux de charge important de chacune des ressource. Ce qui saute aux yeux, c'est la densité sur chaque ligne. Il favorise donc l'engagement des ressources au détriment de l'encours et des attentes.

Line Balance Chart


Au départ, ce type de diagramme est principalement utilisé en génie civil, pour montrer l'avancement de projets répétitifs, comme l'aménagement d'un ensemble d'appartement, la construction d'un ensemble de maisons, etc. Il est composé de :
  • En abscisse, le temps,
  • En ordonné, les projets (ou produits, ou étages, ou lieux) sur lesquels doivent se faire une succession d'opérations (ici 4 produits par exemple)
  • Chaque ligne bleu représente une opération (ou une étape) devant être faite sur chaque projets ou produits. Cette droite donne la période prévue pour chaque du projet,
  • Chaque opération est aussi associée à une courbe représentant le réalisé pour chaque projet (lignes rouges sur le schéma).

Ce type de diagramme peut cependant très bien être utilisé sur des productions par projet avec des projets de même nature (fabrication d'un ensemble de bateaux, fabrication de plusieurs bus, etc.) ou pour des lignes d'assemblage complexes.
Le diagramme suivant représente exactement le déroulement des 4 ordres de fabrication en utilisant un line balance chart. Les lignes en bleu sont le prévu, celle en rouge le réalisé.

Chacune des 4 machines, correspondant ici à une étape de la production des Ordres de fabrication est représenté par une ligne bleu épaisse. La ligne rouge représente le suivi de la production. Pour suivre un ordre de fabrication, il suffit de lire une ligne horizontale.
On voit que la machine 3 (le procédé correspondant) est en retard parce qu'elle a commencé avec du retard. On voit aussi que la machine 1 avait pris du retard, mais le rattrape.
Dans le cadre du génie civil, les courbes bleues (prévisions) sont généralement des droites, car une étapes prend le même temps quelque soit le projet.

L'avantage de cette représentation est de représenter visuellement le planifié et le réalisé pour chaque projet et chaque étape.

Les données manipulées en ordonnancement

Le niveau de planification supérieur a défini des ordres de fabrication ( OF) à réaliser durant certaines périodes de temps (soit les OF). Ces OF correspondent à certaines informations :

  • Le produit à fabriquer,
  • la quantité de produit devant être fabriqué,
  • quelques fois une périodes de temps à l'intérieur de laquelle il doit être fabriqué,
  • quelques fois une date de début au plus tôt et ou des dates de fin au plus tard,
  • Quelques fois une priorité.

Cet OF pointant sur un produit, à partir de la référence du produit (et de la quantité à fabriquer), de sa gamme de fabrication et de la description des opérations de la gamme, on peut créer la gamme de l'ordre de fabrication.
La gamme de l'OF est composée

  • de la liste des tâches à effectuer (une par opération)
  • Chaque tâche est décrite par la machine ou le type de machine nécessaire, sa durée opératoire, et quelques fois des dates de début au plus tôt et de fin au plus tard
  • de l'ordre des tâches.

De fait, dans beaucoup de systèmes informatiques, lors de la création d'un ordre de fabrication, on duplique la gamme du produit afin de pouvoir modifier localement cette gamme sans toucher à la gamme mère.

Typologie des modèles théoriques

On peut dater les débuts de l'ordonnancement théorique dans les années 60, avec entre autre le remarquable ouvrage de Conway qui synthétise la connaissance de l'époque (Conway 67). Les ouvrages se sont ensuite multipliés, ainsi que les articles et autres communications. En ordonnancement d'atelier, il est d'usage (depuis Graham et al. 79) de classer les outils et méthodes utilisées en fonction:
  • De l'organisation de l'atelier,
  • Des contraintes spécifiques,
  • Du (ou des) critères étudiés.

Ces trois champs permettent de caractériser la difficulté du problème, le type de méthode à utiliser ainsi qu'à retrouver les travaux antérieurs.

Notations


Les notations sont pour la plupart issues des termes anglais. Elles sont pourtant unanimement utilisées:
  • [math]i[/math] Indice des jobs
    [math]j[/math] Indice des machines,
  • [math]p_{i,j}[/math] Durée de l'opération faite pour le job [math]i[/math] sur la machine [math]j[/math],
  • [math]s_{i,j}[/math] Date de début (Starting date)de la tâche [math](i,j)[/math],
  • [math]c_{i,j}[/math] Date de fin (Completion date) de la tâche [math](i,j)[/math],
  • [math]r_{i,j}[/math] Date de début au plus tôt (Release date) de la tâche [math](i,j)[/math],
  • [math]d_{i,j}[/math] Date de fin au plus tard (Due date) de la tâche [math](i,j)[/math]

      Type d'organisation de l'atelier

      On distingue les familles de problèmes suivant :

      • Mono machine (une seule machine)
      • Machines parallèles,
        • identiques (durées des opérations indépendantes de la machine),
        • proportionnelles (durées d'une machine à l'autre proportionnelles)
        • quelconques (durées variant d'une machine à l'autre

      • Flow Shop (machine en ligne)
        • Normal, une machine par étage,
        • hybride, avec plusieurs machines par étage

      • Job Shop (chaque ordre a son propre cheminement
      • Open Shop (chaque Job doit faire n travaux sur n machines, mais dans n'importe quel ordre

      La majeure partie de travaux de recherche dans le domaine porte sur le problème Flow-Shop ou le problème de machines parallèles. En gestion de la fabrication, on retrouve des types d'atelier dans lesquels chacun de ces modèles peut se retrouver :
      atelier Exemple d'atelier
      mono machine une entreprise qui opère une ligne de production en flux peut être assimilée à une machine unique : cas d'une ligne de fabrication de bouteilles de verre.
      Machines parallèles Atelier d'injection avec 10 presses à injecter en parallèle,
      Flow shop beaucoup de procédés mécaniques, des lignes de machines (indépendantes)
      Job Shop Atelier mécanique, avec des machines très différentes
      open shop Ensemble de tests, procédés de vérification ou de diagnostique demandant de multiples analyses

      Les problèmes de flow-shop se divisent encore en deux cas, selon que l'on impose un ordre de passage identique sur chaque machine (on parle de Flow-shop de permutation, car une solution se ramène à une permutation des Jobs) ou que l'on accepte que les produits se doublent. Lorsque les produits se doublent, les problèmes sont plus difficiles à résoudre (et surtout beaucoup moins étudiés).

      On utilise souvent le modèle du Flow shop, même si les jobs n'ont pas autant de tâches (donc d'opérations) qu'il n'y a de machines. On introduit alors des tâches de durées nulles. Ce modèle est évidement correct, mais il est alors pénalisant de se limiter aux flow shops de permutation, car un Job n'ayant pas de tâche sur une machine reste bloqué en attente de cette machine, pour une tâche de durée nulle.

      En dehors de cette typologie de base, on parle aussi de re-circulation lorsqu'un job peut passer plusieurs fois sur la même machine

      Contraintes spécifiques

      Les contraintes principales portent sur


      • les contraintes d'antécédence entre tâches
        • Graphe des d'antécédence ayant une structure d'arbre ou de chaînes
        • Contrainte de délais minimum ou maximum entre tâches
        • Contrainte sur les attentes entre tâches

      • Contraintes de dates:
        • Due date (date d'échéance)
        • Release date (date de disponibilité)

      • Les contraintes de ressources:
        • Ressources disjonctives (ressources utilisées exclusivement par un job),
        • Ressources cumulatives (consommées en quantité, comme l'argent par exemple).

      Il peut aussi y avoir des contraintes de temps de réglages, uniforme ou dépendant de la séquence. Il peut y avoir des contraintes d'outillage, d'outil, etc...

      Critères étudiés


      Ordonnancer, c'est choisir une planification détaillée des tâches sur les ressources. Le choix se fait en fonction de certains critères d'évaluation.
      Notation :

      • [math]c_{i,j}[/math] Date de fin (Completion date) de la tâche [math](i,j)[/math],
      • [math]L_{i}=C_i - d_i[/math] Écart (Lateness) du job [math]i[/math],
      • [math]T_{i}=max(0,C_i - d_i)[/math] retard (Tardiness) du job [math]i[/math],

      On distingue généralement deux types de critère:

      • liés à la date de fin du travail
        • Cmax = date de fin de la dernière tâche sur la dernière ressource
        • Cbarre (pour [math]\overline C[/math]) somme (ou moyenne, ce qui est donne le même résultat) des dates de fin des jobs

      • Liés au retard (lorsqu'il y a des dates d'échéances)
        • Lmax, soit l'écart maximum au date de fin
        • Tmax, soit le retard maximum,
        • Tbarre (pour[math]\overline T[/math]) Somme des retards,
        • Nombre de retards

      Il n'y a pas grand écart entre une contrainte et un critère. Souvent, les dates d'échéance sont plus des critères que des contraintes. Cela signifie qu'elles ont été définies dans cet objectif.

      Références


      Blazewicz, J., Lenstra, J.K. and Rinnooy Kan, A.H.G., 1983. Scheduling subject to resource constraints: Classification and complexity. Discrete Applied Mathematics 5 1, pp. 11–24.
      Brucker, P., 1995. Scheduling Algorithms, Springer, Berlin.
      Conway R., Maxwell, W., Miller, L. (1967), Theory of Scheduling, Addison-Wesley, Reading, MA.,
      Graham et al., 1979. R.L. Graham, E.L. Lawler, J.K. Lenstra and A.H.G. Rinnooy Kan, Optimization and approximation in deterministic sequencing and scheduling: A survey. Ann. Discrete Mathematics 5 (1979), pp. 287–326.
      Pinedo, M., Chao, X. (1999), Operations Scheduling with Applications in Manufacturing and Services, McGraw-Hill, New York, NY,

Les différentes approches de résolution en ordonnancement

En ordonnancement d'atelier, on peut soit utiliser un logiciel du marché, soit développer un outil logiciel, soit utiliser des règles manuelles simple. Quel que soit l'outil utilisé, il y a quelques grandes familles d'approches :

L'approche "échéancier/ordres de fabrication"

Cette approche est basée sur la notion "d'ordres de fabrication" quelques fois appelés Jobs ou travaux. Chaque ordre de fabrication est composé de plusieurs tâches élémentaires, chacune devant être faite sur une machine donnée.
L'idée de base est de gérer dynamiquement un échéancier (ou planning, ou diagramme Gantt). Les Ordres de fabrications sont classés avec une règle de priorité donnée, puis ils sont pris l'un après l'autre et placés dans l'échéancier. Les décisions à prendre dans cette approche sont :
  • Comment classer les ordres de fabrication initialement,
  • Comment placer un nouvel ordre de fabrication dans l'échéancier

Le plus souvent, lorsque cette méthode est utilisée, on ne dispose pas de l'ensemble des ordres de fabrication, et on place les ordres de fabrication dans l'échéancier au fur et à mesure qu'on en a connaissance. On peut utiliser cette approche dans une PME pour donner une date à un client faisant une demande spéciale (mais dans ce cas, il n'y a pas de planification stratégique). Si l'ensemble des ordres de fabrication est connu, on peut choisir de classer les ordres de fabrication par dates de disponibilité ou par dates d'échéance croissantes.
Pour ce qui est de placer les ordres dans l'échéancier dynamique, on peut soit les placer au plus tôt, soit les placer au plus tard.

Inconvénient de cette approche :
La solution résultante est souvent de mauvaise qualité. À chaque étape on prend des décisions sans tenir compte des ordres de fabrication qui suivent et on génère des "trous" dans l'échéancier de tailles trop faibles pour être utilisés et ce sont des plages de temps perdues.
Avantage de cette approche
Il y en a peu. Les seuls que l'on peut voir, c'est que cette méthode s'adapte bien à un traitement manuel (on rajoute sur un tableau mural les ordres de fabrication les uns après les autres) et qu'elle est la seule à s'adapter au cas d'une PME qui reçoit les ordres de fabrication "au fil de l'eau" et doit donner des dates de livraison en temps réel.
Améliorations possibles de cette approche
La première amélioration consiste à mixer les approches placement au plus tôt et au plus tard. Si le placement des tâches se fait au plus tôt, en partant de la date de disponibilité [math]r_i [/math]de l'ordre de fabrication [math]i [/math], le placement de l'ordre permet de déterminer sa date de fin planifiée [math]d_i [/math] . On peut alors retirer l'ordre de l'échéancier et le replacer au plus tard, à partir de cette date de fin [math]d_i [/math]. En faisant cela, on obtient une date nouvelle date de début [math]r^'_i [/math] qui est telle que [math]r_i<=r^'_i [/math]. Cette solution diminue donc l'encours moyen. Évidement, on peut inverser et commencer par un placement au plus tard suivi d'un placement au plus tôt.
La seconde amélioration consiste à appliquer périodiquement un algorithme de type "ramasse miette" qui va légèrement décaler les tâches afin de fusionner plusieurs "petits trous" de l'échéancier, inutilisables (car de durée inférieure à la durée d'une tâche) pour en faire des trous exploitables.

L'approche par simulation en utilisant des règles de priorité

Cette approche est basée sur une simulation à évènement discret. Le principe consiste à remplir l'échéancier en suivant l'évolution du temps. À chaque étape de la simulation, on regarde la première machine qui se libère. Pour cette machine, on cherche la liste de toutes les tâches qu'elle peut faire, on classe ces tâches avec une règle de priorité, on place la première tâche et on passe à l'évènement suivants.
Les principales règles utilisées sont:
FIFO : First In First Out
Les tâches sont classées dans leur ordre d'arrivée, soit par ordre de fin de la tâche précédente croissante. Cette règle se traduit simplement par la gestion de file d'attente.

EDD : Earliest due date
Les tâches sont classées par ordre de date d'échéance croissante. Autrement dit, on donne priorité aux travaux les plus pressés. Cette règle de bon sens va souvent donner de bons résultats lorsque l'on cherche à diminuer les retards. Elle peut cependant s'avérer pénalisante dans plusieurs circonstances:

  • plusieurs tâches sont en retard. Dans ce cas, on risque de donner priorité à des tâches déjà en retard, et ce faisant créer encore plus de retard.
  • les durées opératoires sont très variables. Dans ce cas, donner priorité en utilisant EDD à une tâche longue peut entrainer un retard de plusieurs tâches plus courtes, qui auraient pu être faites rapidement.

En fait, la perception du retard n'est pas forcément linéaire et il peut être plus pénalisant de retarder de deux heures une tâche de 10 minutes que de retarder de 4 heures une tâche de 20 heures.
D'autre part, les dates d'échéance sont liées aux ordres de fabrication, pas aux tâches. Dans un problème mono-machine, c'est équivalent. Dans un problème où les ordres de fabrication ont plusieurs tâches, il faut calculer les dates d'échéance par tâche. Notation : pour l'ordre [math]i [/math], il y a [math] k [/math]opérations, chacune de durée [math]p_{i,j}[/math] et la date d'échéance est [math]d_i[/math]. Il faut donc calculer une date d'échéance par tâche, soit [math]d_{i,j}[/math]
Pour cela, il faut définir l'intervalle de travail [math][t, d_i] [/math]. Soit on dispose de la date de disponibilité (release date [math]r_i[/math] de l'ordre) et [math]t=r_i[/math], soit on prend [math]t=[/math]la date courante.
On peut alors soit :
  • prendre des plages constantes [math]d_{i,j}=t_0+j \times \displaystyle \frac {(d_i - t)}{k}[/math]
  • prendre des plages proportionnelles [math]d_{i,j}=d_{i,j-1}+(d_i - t) \times \displaystyle \frac {p_{i,j}}{\sum _{i=1}^{i=k}{p_{i,k}}}[/math]

SPT : Shortest processing time
L'idée de cette règle est de faire au plus tôt les tâches les plus courtes pour "vider" l'atelier d'un maximum de travaux. Cette règle a pour but de diminuer l'encours moyen.
Comme la précédente, cette règle a ses limites. Si l'horizon est glissant, une tâche longue va toujours être "doublée" par les tâches plus courtes qui arrivent après elle. Si l'horizon est fixe (on fait périodiquement l'ordonnancement) les tâches longues seront faites en fin de période et les courtes en début.
Généralement, cette règle est "couplée" avec des principes de bon sens évitant ces problèmes. C'est le cas par exemple de la séparation en deux flux "caisses rapides" "caisses normales" dans les épiceries. Les caisses rapides sont une manière de prioriser les tâches courtes, mais on s'assure (aux caisses normales) que tout le monde sera servi.
Dans certains cas, on peut aussi utiliser LPT (longest processing time) bien que l'intérêt en planification soit souvent faible. C'est un peu le cas aux urgences d'un hôpital ou plus le cas est grave (traitement souvent plus long) plus le patient est prioritaire.
Finalement, il y a le même problème qu'avec EDD lorsque les ordres ont plusieurs tâches. Si les durées opératoires sont très variables, alors un ordre pourra avoir une grande priorité sur une machine et une faible sur une autre. On minimise alors la taille moyenne des files d'attente sur chaque machine, mais on n'améliore pas l'encours global.
MTS : minimum slack time
Il s'agit de calculer pour chaque ordre de fabrication sa marge, comme [math] \left(d_i-r_i- \displaystyle \sum _{i=1}^{i=k}{p_{i,k}}\right)[/math]. Si il n'y a pas de date de disponibilité, on remplace [math] r_i[/math] par la date courante. Donc c'est le temps mort restant pour exécuter toutes les opérations.
L'avantage de cette règle, c'est qu'elle permet de tenir compte des opérations futures dans une décision locale. Souvent, on va modifier cette règle pour pondérer la marge, soit par le nombre d'opérations restantes (ce n'est pas la même chose d'avoir 8 heures de marge s'il reste 1 ou 4 opérations à effectuer) ou par la somme des durées opératoires (ce n'est pas la même chose d'avoir 4 heures de marges quand il reste 1 heure de travail ou quand il reste 40 heures de travail).
Beaucoup de logiciels commerciaux utilisent ce type d'approche et proposent une panoplie de règles basées sur les dates d'échéances, les durées opératoires, les marges ou des règles de priorité externe, avec toutes les variantes imaginables de pondération.

Exemple

Soit un ensemble de 5 jobs ayant chacun 3 opérations décrites par les triplets (Job, opération, machine, durée) suivants:
Job 1 (1,1,M3,4), (1,2,M1,4), (1,3,M2,4)rouge
Job 2 (2,1,M3,4), (2,2,M2,4), (2,3,M1,4)bleu
Job 3 (3,1,M1,6), (3,2,M2,2), (3,3,M3,4)vert
Job 4 (4,1,M2,4), (4,2,M1,4), (4,3,M3,2)rose
Job 5 (5,1,M1,1), (5,2,M2,6), (5,3,M3,4)jaune

Ordonnancement par Job


En prenant les jobs dans l'ordre chronologique, l'ordonnancement au plus tôt donne le résultat suivant :


Les dates de débuts, fin et encours sont :
job 1, 0, 12, 12
Job 2, 4, 20, 16
job 3, 8, 22, 14
job 4. 0, 26, 26
job 5, 0, 30, 30
L'encours moyen est donc de 98/5= 19.5
On peut essayer d'améliorer ce résultats en enchainant une approche au plus tard après le premier ordre (on conserve l'ordonnancement existant, mais on décale les jobs en conservant leur date de fin). l'ordre obtenu est le suivant :

L'encours moyen est passé à 79/5=15.8.
En prenant les jobs dans le même ordre, mais en les classant au plus tard, à partir de la date de fin(Cmax=30, calculé précédemment), l'ordonnancement résultant est le suivant :

job 1, 18, 30, 12
Job 2, 14, 30, 16
job 3, 14, 30, 16
job 4. 6, 26, 20
job 5, -1, 14, 15
L'encours moyen est donc de 79/5=15.8
On peut essayer d'améliorer ce résultats en enchainant une approche au plus tôt après le premier ordre (on conserve l'ordonnancement existant, mais on décale les jobs en conservant leur date de début). l'ordre obtenu est le suivant :

Ordonnancement par simulation


En utilisant comme règle de priorité extrêmement simple l'ordre lexicographique, et en débutant l'ordonnancement à la date t=0, l'ordonnancement par simulation permet d'obtenir une solution en 22 unités de temps au lieu de 30.

job 1, 0, 22, 22
Job 2, 4, 19, 15
job 3, 0, 12, 12
job 4. 6, 22, 16
job 5, 0, 18, 18
L'encours moyen est donc de 83/5=16.6
En terme de Cmax, le gain est considérable, puisqu'en passant de 30 à 20, on gagne 33%. En revanche, le gain est moins important pour l'encours moyen.

Optimisation


Si on cherche à obtenir le Cmax optimum, on peut arriver à la solution suivante:

Cette solution est optimale puisque le Cmax est égal à la somme des travaux sur M2, on ne peut donc pas faire mieux.

Utilisation de méthodes dédiées

Depuis des décennies, les chercheurs ont identifié des problèmes caractéristiques, spéciaux, bien définis. Pour ces problèmes, et pour un critère donné, ils ont trouvé des algorithmes dédiés, soit donnant la solution optimale, soit une solution approchée. Dans ce dernier cas, les chercheurs ont généralement prouvé la distance de la solution trouvée à la solution optimale.

Dans certains cas simples, les règles de priorité donnent des solutions optimales pour certains critères. Dans la majeure partie des cas, on recherche des solutions plus complexes. Parmi les algorithmes les plus connus, on trouve:


Utilisation de métaheuristiques

Utilisation de métaheuristiques


Les métaheuristiques sont avant tout des heuristiques. Leur objectif n'est pas de produire une solution "optimale", mais de produire une solution "de bonne qualité" en un temps raisonable.
Parmi l'ensemble des heuristiques, les métaheuristiques sont des heuristiques "génériques" qui peuvent s'appliquer à un grand nombre de problèmes.
Principalement apparues dans les années 80, ces méthodes permettent d'aborder les problèmes très complexes en adaptant l'algorithme générique au problème particulier.
Les principales méta-heuristiques se regroupent en 3 grandes familles :
  • les méthodes itérative ou l'on part d'une solution que l'on améliore
  • Les algorithmes à base d'une population de solution (algorithmes génétiques)
  • Les algorithmes de type fourmis

    Algorithme génétiques

    Principe


    Le principe consiste à maintenir une population de solutions. D'une génération à l'autre, cette population va évoluer
    • Certains individus vont passer directement d'une génération à l'autre
    • de nouveaux individus vont être générés par mutation d'un individu de la population précédente,
    • Certains individus vont être créés par croisement de deux individus de la génération précédente.

    Ainsi, la population va évoluer, et à toutes les nouvelles générations on va observer les meilleurs individus pour connaitre la meilleure solution courante.
    Les principaux paramètre d'un algorithme génétique sont :
    • le codage d'une solution
    • Le mécanisme de choix des individus qui mutent ou qui vont être croisés
    • Le mécanisme de mutation
    • Le mécanisme de croisement
    • la politique relativement aux doublons
    • la politique relativement à la conservation ou non des individus ayant mutés ou s'étant croisés.

    Codage


    Le codage est fondamental car il devra supporter les opérations de croisement et de mutation. On cherche le plus souvent à modéliser une solution par un vecteur de booléens, qui est la forme la plus facile à manipuler. On peut être amené à avoir des vecteurs de réels, des matrices, etc. Mais plus le codage est complexe, plus les opérateurs seront difficiles à mettre en place.

    Choix des candidats


    On souhaite favoriser les meilleurs solutions. On essaye donc de tirer aléatoirement le fait que tel ou tel individu va être sélectionné, mais avec une probabilité proportionnelle à sa performance.
    Soit [math] Min[/math] la meilleur solution possible, et[math] Max[/math] la pire. Il peut paraitre naturel pour une solution de valeur[math] V[/math] d'utiliser la probabilité : [math]P(V)=\displaystyle \frac{max-V}{Max-Min}[/math]. Malheureusement, il faudrait connaitre les valeurs respectives de [math] Min[/math] et [math] Max[/math] ce qui n'est pas le cas. On peut utiliser les extrêmes connues, mais cela peut induire un biais.
    Exemple :
    Min=100, max = 200, pour V = 150, P= 0.5 et pour v=160 p=0.4
    Si la meilleure solution connue est 145, la pire 180, les probabilités deviennent P(150)=0.85 et P(160)=0.44.
    Si la meilleure solution connue est 145, la pire 200, les probabilités deviennent P(150)=0.9 et P(160)=0.72.
    Autrement dit, cette méthode est très sensible à l'estimation des bornes.

    Mutation


    Il y a un très grand nombre de méthodes de mutation, dépendant étroitement de la nature du problème et du codage. Dans les algorithmes d'ordonnancement, si la solution est une séquence, il est fréquent de permuter deux jobs. Si on travaille sur une tournée de véhicules, on peut permuter deux villes sur le cycle. Si on travaille sur l'implantation d'un atelier, on peut permuter deux machines dans l'agencement spatial.

    Croisement


    Là encore, il y a une infinité de méthodes de croisement. L'idée est souvent d'essayer de faire deux enfants avec deux parents. Pour cela, il faut arriver à extraire deux sous ensembles cohérents des deux parents.

    Les doublons


    Fréquemment, un individu créé peut avoir son clone déjà présent dans la population. Qu'en faire. Si on cherche à améliorer globalement le niveau moyen de la population, il est évident que les meilleurs individus vont apparaitre plusieurs fois, et les conserver, c'est augmenter les chances que ces bons individus se reproduisent. En revanche, il y a un risque de consanguinité, et il ne faut pas avoir une population trop homogène. Plusieurs auteurs proposent des solutions contradictoires sur ce point.

    Le sort des parents


    Lorsque deux individus performants ont été choisis pour un croisement, on créé deux enfants mais que faire des parents. Si on les conserve, on va vers une augmentation irrémédiable du cardinal de la population, mais si on les élimine, on risque de se priver de nos meilleurs reproducteurs.
    Parmi les solutions, il y a la possibilité de conserver les parents, mais d'éliminer à chaque génération les plus mauvais individus, afin de conserver une population plus ou moins constante.

    références


    les sites de Wikipedia sont corrects
    http://en.wikipedia.org/wiki/Genetic_algorithm
    http://fr.wikipedia.org/wiki/Algorithme_g%C3%A9n%C3%A9tique
    http://en.wikipedia.org/wiki/Genetic_algorithm

    Algorithmes itératifs

    Principe


    Le principe des métha-heuristiques itératives consiste à prendre une solution initiale (aléatoirement ou en utilisant une heuristique spécialisée) et à améliorer cette solution en cherchant dans son voisinage une solution meilleure.
    La notion de voisinage est complexe. Le voisinage d'une solution dépend étroitement de la nature d'une solution.
    Si la solution est une séquence, le voisinage d'une solution peut consister en toutes les solutions obtenues par permutation de deux éléments consécutifs (soit [math] (n-1) [/math] permutations si [math]n[/math] est le nombre d'objets de la séquence). Si on cherche un voisinage plus vaste, on peut considérer toutes les permutations de 2 éléments quelconques de la séquence (soit [math] \frac{n \times (n-1)}{2} [/math] permutations).
    Si la solution est une partition, le voisinage peut consister en l'ensemble des partitions obtenues en déplaçant un élément.

    Descente stochastique


    Consiste à appliquer l'algorithme suivant :
    • 1) Choisir une solution initiale,
    • 2) Tant qu'un critère d'arrêt n'est pas atteint faire
    • 3) Choisir aléatoirement une solution voisine
    • 4) Si elle améliore la solution courante, la prendre,
    • 5) Retourner en 2
    Le critère d'arrêt est souvent le fait que l'on a testé [math] K [/math] solutions voisines sans une seule amélioration. L'algorithme devient :
    • 1) choisir une solution initiale, n=0
    • 2) tant que [math] n < K [/math]
    • 3) choisir aléatoirement une solution voisine
    • 4) si elle améliore la solution courante, la prendre, et n=0, sinon n=n+1
    • 5) retourner en 2

    Cet algorithme élémentaire peut être utilisé pour tester la qualité d'algorithmes spécialisés. Il suffit d'enchaîner des descentes stochastiques successives en choisissant des solutions initiales différentes, durant le temps d'exécution de l'algorithme spécialisé à tester.
    Cet algorithme ne garanti évidement pas une solution optimale, mais il ne garanti pas non plus un optimum locale dans le voisinage.

    Méthode du gradient


    Contrairement à la descente stochastique, la méthode du gradient explore tout le voisinage. L'algorithme simplifié est le suivant :
    • 1) choisir une solution initiale,
    • 2) évaluer toutes les solutions du voisinage
    • 3) choisir la meilleure
    • 4) si elle améliore la solution courante, la prendre, et retourner en 2)
    • 5) fin

    Cet algorithme garanti un optimum local, puisqu'aucune solution du voisinage n'améliore la solution. En revanche, cet optimum n'est pas forcément un optimum global. Les méthodes suivantes ont pour but de se sortir des optima locaux.

    Méthode Tabou


    La méthode Tabou a pour but de permettre de sortir d'un optimum local. Sur le même principe que le gradient, cette méthode va parcourir tout le voisinage, mais elle va accepter d'aller vers une solution moins bonne que la solution courante.
    Évidement, si on se contente de cette règle, on va vers un problème, car si la solution [math]S[/math] est un optimum local, et qu'on la quitte pour [math]S'[/math], moins bonne que [math]S[/math], mais la meilleure dans le voisinage, comme par réciprocité [math]S[/math] est dans le voisinage de [math]S'[/math], en quittant [math]S'[/math]on risque fort de revenir sur [math]S[/math] et de boucler. Pour éviter cela, on utilise la liste Tabou: C'est une liste des dernières solutions visitées que l'on s'interdit de reprendre à court terme. C'est en quelque sorte l'historique de la recherche. À chaque itération, une nouvelle solution rentre dans la liste Tabou et la plus ancienne en sort.
    Malgré tout, il peut se trouver que la meilleure solution autorisée (donc dans le voisinage de la solution [math]S[/math] moins la liste Tabou) soit de bien moins bonne qualité que la solution courante. On peut alors relaxer la contrainte de la liste Tabou en changeant la solution courante par une solution de la liste tabou (cela revient à revenir en arrière, tout en refusant de refaire les mêmes erreurs (grâce à la liste Tabou).
    L'algorithme est donc :
    [math]V(S)[/math] = voisinage de la solution [math]S[/math]
    [math]T(t)[/math]= Liste Tabou à l'itération [math]t[/math]
    • 1) choisir une solution initiale [math]S(0), t=0, T(0)= \varnothing , best=S[/math]
    • 2) [math]t=t+1[/math]
    • 3) S(t)= la meilleure des solutions dans [math]V(S(t))-T(t)[/math]
    • 4) Si elle détériore trop la solution S(t-1) utiliser la fonction d'aspiration pour déterminer S(t)
    • 5) Mettre à jour [math]T(t),Best [/math] si nécessaire
    • 5) Si le critère de fin est atteint, finir, sinon retourner en 2)

    Le critère d'arrêt peut être de ne pas avoir amélioré la solution durant les [math]K[/math] dernières itérations.

    Recuit simulé


    Cette méthode s'apparente plus à la descente stochastique qu'au recuit simulé puisque l'ensemble du voisinage de la solution courante ne sera pas visité.En revanche, pour ne pas rester dans un optimum local, l'algorithme va accepter de sélectionner un voisin qui détériore la solution courante, avec une probabilité donnée, décroissante au cours du temps.
    Algorithme:
    initialiser S, Sopt=S, Meilleur=Val(S),k←0
    Tant que [math]k <= kmax [/math]

    Choisir S' dans V(S), calculer Val(S')
    si Val< Meilleur alors Sopt ← S', Meilleur ← Val(S')
    si [math] P \left( S', S, k \right)> alea())[/math] alors S←S'
    k ← k + 1

    retourner Sopt

    Cet algorithme utilise comme critère d'acceptation le critère dit de Metropolis qui consiste à accepter la nouvelle solution avec une probabilité P(S', S, T)égale à:

    • 1 si Val(S') < Val(S)
    • [math] exp{\left( \displaystyle \frac {Val(S)-Val(S')}{T} \right)} [/math] sinon.

    T est un paramètre qui mesure une température et qui fait qu'à haute température, si T est grand, [math] \displaystyle \frac {Val(S)-Val(S')}{T} [/math] est proche de 1 et donc on aura tendance à accepter de choisir des solutions qui dégradent la solution courante, alors que si la température se rapproche de 0, alors l'algorithme se comportera comme une descente stochastique.
    Dans l'algorithme proposé, la température est calculée comme [math]k/kmax[/math]. Elle décroit donc quand k augmente, pour atteindre 1.
    Dans d'autre version de cet algorithme, la température décroit par pallier.
    Il a été montré que l'algorithme du recuit simulé converge vers la solution optimale, mais la preuve de convergence utilise le fait que l'ensemble des réels est fini lorsque l'on utilise un ordinateur, et que le temps peut être poursuivi à l'infini. Autrement dit, dans la pratique, ce résultat est inutilisable et cette méta-heuristique ne converge pas plus que les autres vers l'optimum global.

    Références


    http://en.wikipedia.org/wiki/Reactive_search_optimization
    Un excellent document sur la recherche Tabou :
    http://www.ifi.uio.no/infheur/Bakgrunn/Intro_to_TS_Gendreau.htm
    Pour le recuit simulé, attention au site wikipedia français, il contient des erreurs. Voir plutôt; http://en.wikipedia.org/wiki/Simulated_anealing
    Kirkpatrick, S.; C. D. Gelatt, M. P. Vecchi (1983-05-13). "Optimization by Simulated Annealing". Science. New Series 220 (4598): 671-680
    Granville V., M. Krivánek, J. P. Rasson "Simulated annealing: A proof of convergence". IEEE Transactions on Pattern Analysis and Machine Intelligence 16 (6): 652-656. June 1994

    Le rôle de la communication dans la gestion des opérations







    Les outils logiciels pour la gestion des opérations



    Aujourd'hui, les logiciels utilisés pour la gestion des opérations sont essentiellement les Entreprise Resource Planning (ERP). Mais pour comprendre leur arrivée. il faut un peu d'histoire.

    Perspective historique du dveloppement des logiciels ERP

    L'histoire commence dans les années 75-80, par l'arrivée d'ordinateurs dans les entreprises, et par le développement d'outils logiciel pour aider à la gestion des entreprises.

    La première époque, 1960-1975

    Dès les années 1960 - 1970, les entreprises commencent à s'équiper d'ordinateurs pour les aider dans les grandes fonctions de gestion de l'entreprise, à savoir :

    • Gestion comptable
    • Gestion des ressources humaines (paye essentiellement),
    • Gestion des achats (suivi des commandes, lignes de commandes, bordereaux de livraison, etc.),
    • Gestion de la production

    Par fonction de gestion, on entend généralement deux choses importantes : la gestion d'un grand nombre de données et l'application sur ces données de "transactions" simples qui permettent de générer de nouvelles données, mais ne nécessitent pas de "décisions humaines". Fréquemment, les logiciels sont développés pour UNE machine, si bien que le choix de l'ordinateur implique souvent le choix du logiciel. Les grands fabricants de logiciel sont souvent ceux qui développent les logiciels qui tournent sur leurs ordinateurs. Ce mouvement pousse d'ailleurs au développement de nombreux logiciels puisque la compagnie fabriquant les ordinateurs est dépendante des applications supportées. IBM (MAPICS puis COPICS), Burough, Honnewell puis Honewell-bull, Hewlett-Packard développeront leurs logiciels de GPAO (gestion de Production Assistée par Ordinateur). Généralement, les fonctions supportées en GPAO sont :
    • Gestion et tenue des stocks
    • MRP, gestion du PDP et surtout, calcul automatique des Besoins nets,
    • gestion des ordres de fabrication,
    • Gestion des Gammes et nomenclatures pour supporter les applications.

    Souvent, les différentes applications tournent sur des ordinateurs différents et ne communiquent pas entre elles (sauf par des échanges de fichiers, lourds et complexes).
    Dans le seconde moitié des années 70, on voit apparaitre les périphériques "clavier écrans" qui vont révolutionner les interfaces avec ces applications. Ces périphériques remplacent les lecteurs de cartes ou de bandes perforées. Ils vont permettre d'une part d'étendre le nombre d'utilisateurs, et d'autre part de décentraliser le lancement des applications.
    En marge de ces applications, on commence à utiliser (fin des années 70) dans les entreprises manufacturières des logiciels métiers, qui supportent non pas la gestion transactionnelle mais bien le Core business de l'entreprise. Vont se développer des applications de CAO (Conception assistée par ordinateur) puis de CFAO (Conception et Fabrication assistée par ordinateur). Ces applications tournent sur des ordinateurs dédiés, avec des écrans spéciaux qui permettent des dessins vectoriels.

    Seconde génération, le développement 1980-1990

    En 1981, le premier IBM PC, avec presque aussitôt le système d'exploitation DOS (mono-tâche, en mode caractère alors que les concurrent de IBM sont presque tous déjà multi-tâches et en mode fenêtre). Les ordinateurs se popularisent, les interfaces s'améliorent grandement, les systèmes d'exploitations se standardisent, la notion de machine virtuelle permet rapidement de disposer les mêmes logiciels sur plusieurs ordinateurs. On va aussi voir le développement de systèmes de gestion de base de données qui vont permettre de séparer la gestion des données des applications.
    Tous ces outils vont permettre le développement rapide des progiciels, que ce soit des progiciels de gestion ou des progiciels métiers.
    Durant cette phase, on voit deux mouvements principaux se dessiner :

    • D'une part il y a une profusion de logiciels spécialisés pour toute sorte de fonctions de gestion,
    • D'autre part, les fonctionnalités des différents logiciels initiaux augmentent et petit à petit ils empiètent les uns sur les autres.

    Le besoin se fait sentir d'INTÉGRER. C'est le mot à la mode dans les années 80. En fait, il s'agit à cette époque d'essayer de rendre cohérente les différentes applications, d'essayer de les faire communiquer et de minimiser les applications redondantes.
    On parle de CIM (Computer Integrated Manufacturing . Essentiellement, à cette époque, on va chercher à avoir une intégrité des données, et donc une Base de données unique autour de laquelle les différents logiciels vont graviter.

    Arrivée des ERP -1990-2000


    À partir des années 80, on s'aperçoit que le nombre d'applications informatiques dans les entreprise a explosé (souvent plusieurs centaines), que cela entraine un coût démesuré, et qu'il faut mettre un frein à cette tendance. Sont alors introduit les Entreprise Ressource Planning, ERP (ou Progiciels de Gestion intégrée, PGI en français). Ces progiciels intègrent en une seule application l'essentiel des applications de gestion. On retrouve généralement les modules suivants :
    • Gestion financière, incluant le suivi des coûts de production,
    • Gestion comptable,
    • Gestion des ressources humaines,
    • Gestion des approvisionnement et des achats,
    • Gestion de la production, MRP, PdP, CBN et calcul de capacité,
    • Suivi de la production,
    • Une certaine gestion du cycle de vie des produits (gestion des versions),
    • Marketing, relation avec les clients

    .

    Les acteurs des premiers développements

    Au début, il y a trois intervenants principaux dans l'implantation d'un outil logiciel dans une entreprise:

    • Le fabricant d'ordinateur,
    • Le développeur du logiciel,
    • Les consultants qui vont "installer" le logiciel

    En effet, dans les années 75-85, on utilise essentiellement des main-frames, avec des systèmes d'exploitation propriétaires, et le logiciel est souvent directement lié à l'ordinateur qui le supporte.
    Ensuite, petit à petit, les constructeurs se retirent. L'utilisation de systèmes de gestion de bases de données, la standardisation des systèmes d'exploitation et d'autres phénomènes autorise les logiciels à tourner sur de nombreuses plate-formes. Petit à petit, les offreurs de logiciels et les sociétés de services en informatique prennent la relève.
    Au moment ou les ERP arrivent, on trouve essentiellement deux modèles d'affaire:
    • De gros concepteurs de logiciel maintiennent un réseau commercial et installent, paramètrent et mettent en place leur logiciel dans les entreprises,
    • D'autres concepteurs développent un partenariat avec les Sociétés de service en informatique pour les former à l'implantation de leur logiciel.

    Aujourd'hui, on trouve deux tendances nouvelles dans le secteur des ERP:
    • Les logiciels libres commencent à prendre de l'importance et le nombre d'ERP libres augmente considérablement,
    • Certaines entreprises ont tendance à externaliser toute leur informatique, et roulent leurs applications chez des entreprises spécialisées.

    Ce sont les solutions WEB-Based qui ont rendu possible la seconde avancée. Notons qu'il reste encore un petit nombre d'entreprises qui utilisent leur propre logiciel, développé en interne, au lieu de passer par des progiciels du marché.

    un ERP c'est quoi ?

    Un ERP est donc un progiciel (produit logiciel) donc un logiciel préexistant à l'implémentation locale qui en est fait. Le progiciel est donc un ensemble de fonctionnalités prédéfinies, qui couvrent un spectre suffisamment large pour que chaque client puisse, en sélectionnant les parties qui l'intéressent, avoir l'impression que l'outil couvre ses besoins. Les étapes de mises en place d'un progiciel sont assez indépendantes de son domaine d'activité.
    On distingue d'abord

    • la phase d'analyse qui distinguera :
      • Ce qui dans le progiciel correspond excatement au besoin exprimé,
      • Ce qui demandera une adaptation de l'entreprise aux spécificités du progiciel,
      • Ce qui demandera une adaptation du progiciel par des développements spécifiques
    • La phase de développement
      • Développement et test des parties spécifiques
      • Adaptation de l'entreprise aux spécificités du progiciel,
      • Paramétrage du progiciel pour sélectionner les parties du progiciels utilisées et les adapter à la réalité de l'entreprise
    • La préparation à la mise en place,
      • Gestion du changement (information, formation, communication,
      • Migration des données de l'ancien au nouveau système,
      • Les tests et les simulations.
    • La mise en place
      • soit en big bang, toute l'entreprise en même temps,
      • Incrémentale, avec une partie de l'entreprise ou une partie des fonctions

    Même si le progiciel préexiste à son implantation, il faut souvent faire un cahier des charges de fonctions souhaités pour pouvoir effectuer la première étape (l'analyse des processus).
    L'ERP n'est pas un cas particulier. Cependant, en tout cas pour les gros systèmes, les fonctionnalités supportées étant extrêmement complexes, le paramétrage est devenu une chose très difficile, que seuls les spécialistes peuvent réaliser.
    En plus, même si le but avoué des ERP est de supprimer la jungle des applications utilisées dans l'entreprise, l'ERP ne sera jamais l'unique système d'information. Il faut donc prévoir les communications entre différents systèmes.

    Les offreurs


    Les principaux offreurs de progiciels ERP sur le marché peuvent être vu sur le site site des offreurs d'ERP ou celui des logiciels comptables . Quelques offres dominent le marché, SAP , Microsoft, Oracle.
    Le monde des ERP est en constant mouvement par les rachats, alliances et restructurations diverses.

    L'implantation d'un ERP

    L'implantation d'un ERP est un processus difficile, long, couteux et risqué. Plusieurs auteurs annoncent un taux de succès des projets d'implantation d'ERP inférieurs à 50%.

    On distingue généralement trois phases principales dans l'installation d'une solution ERP:

    • Le choix de la solution,
    • l'implémentation,
    • l'optimisation

    Reference

    Concernant les taux de succès

    Brown, W. (2004). Enterprise resource planning (ERP) implementation planning and structure: A recipe for ERP success. Paper presented at the proceedings of the 32nd annual ACM SIGUCCS conference on user services, Baltimore, MD.
    Barker, T., & Frolick, M. N. (2003). ERP implementation failure: A case study. Information Systems Management, 20(4), 43–49.

    Choix de la solution

    Dans la première phase, il faut définir le besoin (un cahier des charges), rencontrer les solutions, envisager les modifications de processus à mettre en œuvre, puis choisir.
    Globalement, si l'on se met d'un point de vue des processus de fonctionnement de l'entreprise, il y a trois états :

    • Là ou l'on est avant l'ERP (ou avec l'ERP actuel),
    • Là ou l'on voudrait être (qui peut être conservatif ou très différent),
    • Là ou l'on sera après l'implantation du logiciel.
    L'objectif est évidement d'aller au moindre coût à l'état final.
    Le cahier des charge est évidement un moment important pour réfléchir à nos processus de fonctionnement. Il faut cependant être conscient que les solutions qui s'offrent sont très proches sur 80% à 90% des processus et se distinguent sur moins de 20%. Plutôt que de passer des semaines sur les 80% des processus qui de toute manière seront prises en charge par toutes les solutions, il faut sans doute plus rechercher les 20% d'originalité qui supporteront les décisions importantes. Maintenant, seuls les spécialistes des ERP peuvent identifier ces 20%, et il est donc utile de se faire accompagner dans cette phase.
    Umble et al propose alors les étapes suivante pour la phase 1 :
    • Create the vision.
    • Create a feature/function list.
    • Create a software candidate list.
    • Narrow the field to four to six serious candidates.
    • Create the request for proposal (RFP).
    • Review the proposals.
    • Select two or three finalists.
    • Select the winner.
    • Justify the investment.
    • Negotiate the contract.
    • Run a pre-implementation pilot.
    • Go-no go

    La liste des candidats est en fait assez facile. Pour une grosse entreprise, il y a entre 5 et 8 acteurs principaux. Et aucune entreprise aujourd'hui ne part sur un projet de "création" mais plutôt sur des projets de migration ou de changement. La question est alors plutôt "migration sur la nouvelle version" ou "changement de logiciel". Pour une PME, la liste des logiciels va se faire en tenant compte :

    • Des logiciels s'adressant à notre taille d'entreprise,
    • Des logiciels supportés localement,
    • des expériences d'implantation dans des entreprises du même secteur (consultation des usergroups par exemple
    .
    Une des questions importantes est de choisir entre logiciel libre ou logiciel commercial. Il faut noter qu'il y a de plus en plus de logiciel libre dans le monde des ERP.

    Finalement, certains consultants ajoutent, avec une pointe d'humour un point intermédiaire juste après "select the winer": "et on prend SAP". Cette pointe d'humour est importante, car elle correspond en fait à une approche "topdown" dans l'approche marketing de ce leader du marché. Plutôt que de se concentrer vers les utilisateurs ou les équipes constituées pour choisir, les commerciaux de SAP visent plutôt la direction générale de l'entreprise qui sont, in fine, les seuls décideurs.

    References

    Elisabeth J. Umble a, Ronald R. Haft b, M. Michael Umble, Enterprise resource planning: Implementation procedures and critical success factors, European Journal of Operational Research 146 (2003)241–257

    l'implémentation du logiciel

    Il est clair que cette phase est absolument fondamentale. Il y a deux approches pour implémenter un tel logiciel : incrémental ou en bloc. Les étapes sont cependant comparables pour toutes les autres phases.
    Umble propose là encore une implantation par étapes :

    • Review the pre-implementation process to date.
    • Install and test any new hardware.
    • Install the software and perform the computer room pilot.
    • Attend system training.
    • Train on the conference room pilot.
    • Establish security and necessary permissions.
    • Ensure that all data bridges are sufficiently robust and the data are sufficiently accurate.
    • Document policies and procedures.
    • Bring the entire organization on-line, either in a total cutover or in a phased approach
    • Celebrate.

    Le hardware va dépendre de la politique choisit. De plus en plus d'entreprises choisissent de ne pas héberger leur système, mais de laisser la responsabilité du matériel et du logiciel à un sous-traitant. Seuls, les terminaux, le plus souvent web-based sont dans l'entreprise. Dans ce cas, cette étape est éliminée.
    La formation peut être une opération très longue. Beaucoup d'utilisateurs doivent être formés, et cette phase peut s'avérer très couteuse.

    Reference

    Elisabeth J. Umble a, Ronald R. Haft b, M. Michael Umble, Enterprise resource planning: Implementation procedures and critical success factors, European Journal of Operational Research 146 (2003)241–257

    Les facteurs de succès

    De nombreux chercheurs se sont penchés sur les facteurs favorisant le succès ou l'échec d'une implantation d'ERP. Parmi les principaux facteur de succès, on trouve:

    • La définition précise des objectifs
      l'implication de la haute direction,
    • la qualité de la gestion de projet,
    • la préparation au changement de l'organisation,
    • la qualité de l'équipe projet et de son leader,
    • le degré de formation aux outils mis en place,
    • la qualité du suivi de projet et des indicateurs de performance mis en place,
    • Des difficultés liées au sites multiples,
    • des difficultés techniques informatiques.

    La qualité de l'équipe projet et de son leader apparait comme une des principales clefs du succès.
    Au delà de ces facteurs, pour ce qui concerne la gestion de la fabrication, l'implantation d'un ERP doit répondre à plusieurs question quant au niveau de détail des données et à l'utilisation des processus automatisés.

    Jusqu'où aller dans la modélisation des données techniques

    Modéliser les données techniques d'une entreprise au travers d'un ERP est en fait une succession de choix. Un logiciel ERP est un méta-modèle d'entreprise extrêmement complexe dont on suppose que chaque entreprise est un sous ensemble. Donc on doit choisir ce que l'on retient et ce que l'on ne retient pas. Souvent, certains possibilités du logiciel en terme de données techniques correspondent à des réalités de l'entreprise. La question ets de savoir si oui ou non il faut les implémenter.
    Exemple 1:
    Une entreprise utilise comme matière première des barres d'acier de longueur initiale de mètres. Dès qu'un bout est coupé, il faut signifier que la barre a une forme longueur. Il est possible de mémoriser le stock en terme de mètre, en terme de barre, ou même mémoriser chaque barre avec sa longueur. Seule la dernière méthode va permettre de savoir "automatiquement" si une nouvele demande est faisable. Mais elle va couter beaucoup plus cher en temps de mise à jour et en suivi. Est ce bien utile ? cela dépend des cas.
    Exemple 2:
    Une entreprise gère des centres d'usinages. Le temps de réglage exact dépend des outils qui doivent être monté sur le magasin d'outil. Il est donc dépendant de la séquence. On peut dans la plupart des logiciel décrire cela. Mais cela risque d'être très lourd, et dès qu'une modification est faite à un programme de commande numérique, il faudra penser à modifier les opérations correspondantes.
    Exemple 3:
    Une entreprise opère des presses à injecter. La politique de la compagnie est d'utiliser un nombre fixe d'opérateur, et d'ouvrir un nombre variable de presses, en fonction du besoin. Un opérateur peut s'occuper d'une, deux ou trois presse, mais évidement les durées opératoires sont affectées par le degrés de disponibilité de l'opérateur. Certains logiciels permettent de décrire cela. Doit-on le faire ou doit-on laisser cela à l'opérateur ou au responsable de production ?
    En général, il faut faire attention à ne pas avoir une modélisation trop fine de la réalité car les coûts de maintient de la qualité de la base de données peuvent augmenter exponentiellement, sans que les bénéfices apportées ne changent significativement.

    Quelles fonctionnalités implémenter ou laisser hors du système

    L'automatisation d'une fonction est toujours possible, mais pas forcément facile. Dans certain cas, il vaut mieux laisser une procédure manuelle plutôt que d'essayer de méliser toutes les données pour l'automatiser
    Exemple 1:
    Une entreprise de fabrication de biscuits alimentaires dispose de 4 lignes de fabrication, et d'un seul chimiste. Ce chimiste ne peut pas contrôler simultanément les 4 lignes si des recettes complexes sont en cours sur les 4 lignes. Tout le monde le savait, mais personne ne savait exactement ce que c'était que 4 recettes complexes. Deux options :

    • chercher à comprendre, trouver des attributs caractérisant les recettes, mettre des contraintes.
    • Présenter les plans au chimiste et lui demander si c'est correct.
    La première solution est surement intellectuellement plsu satisfaisante, mais est-elle plus efficace et plus économique ?
    Exemple 2:
    La majeure partie des entreprises font une planification détaillée à capacité finie (ordonnancement), mais san stenir compte de la disponibilité des opérateurs. Il est clair que si les opérateurs ne sont pas suffisants, le plan est infaisable. Les ERP permettent aujourd'hui de prendre en compte les opérateurs. Doit-on le faire?
    • Si on le fait, cela induit un surcoût important pour saisir leur disponibilité, savoir si quelles opérations ils peuvent faire, etc.
    • Ne pas en tenir compte, c'ets accepter de donne rà l'atelier des ordonnancement infaisable
    Le choix n'est pas évident, car un bon responsable de production peut s'écarter du détail de l'ordonnancement et néanmoins atteindre les objectifs.

    Il est possible de définir autant de rôle que l'on veut dans un ERP. Doit-on en abuser ?

    Qui a le droit de faire quoi, et qui a le droit de voir quoi dans le système. la majeure partie des ERP permettent d'aller très loin dans la définition des rôles et des fonctions, pour réelement définir un profil précis par utilisateur. Mais cela demande du temps et demande des modifications continuelles pour s'adapter aux évolutions naturelles du système.