Blog

SIGMA 5 : Exercices corrigés

Exercice 1

On souhaite mettre sous contrôle statistique le volume de remplissage des bouteilles dans une usine d’embouteillage.

Pour ce faire, le volume est mesuré en plaçant une jauge au niveau supérieur de la bouteille et en comparant la hauteur du liquide par rapport 0 une échelle codée (écart de +1 graduation = +1 cl). Une valeur zéro correspond au volume nominal visé de 1 litre.

On réalise un gage R&R avec le concours de 2 opérateurs, réalisant chacun 3 mesures sur 7 bouteilles.

 

Opérateur A

 

Opérateur B

 

M1

M2

M3

 

M1

M2

M3

Bouteille 1

-1,5

-1

-1,5

 

-1

-1,5

-1

Bouteille 2

-1,0

-0,5

-0,5

 

-0,5

-0,5

-0,5

Bouteille 3

0,0

0

0,5

 

0,5

0,5

0

Bouteille 4

-1,5

-1,5

-1,5

 

-1,5

-1,5

-1

Bouteille 5

0,5

0,5

0,5

 

0,5

0,5

0,5

Bouteille 6

0

0,5

0

 

0,5

0,5

0

Bouteille 7

1

0,5

1

 

1

1

0,5

 

 

 

 

 

 

 

 

 

 

Calculer le Cpc. Le processus de mesures est-il acceptable ?

Correction

R1 (moyenne des étendues pour l’opérateur 1) =R2 = 0,3571 è R bar = (R1 + R2)/2= 0,3571

σ répétabilité = 0,3571/1,693=0 ,209

M1 (moyenne des mesures de l’opérateur 1) =  - 0,25

M2 = -0,14

RM = -0,14-(-0,25)=0,11 è σ opérateur = 0,11/1,693= 0,065

σ reproductibilité = racine (σ²répétabilité – σ²opérateur/3) = 0,06

σ instrument = racine (σ²répét + σ²reproduc) = 0,22

Cpc = 6/(6x0,22) = 4 ,54 > 4 ==> MOYEN DE MESURE ACCEPTABLE

 

Exercice 2

Un chantier DMAIC a été déclenché afin de comprendre et maîtriser l’effet du réglage des cales longitudinales d’une forge sur la rugosité des pièces produites, que l’on cherche à minimiser. Dans la phase « Mesurer », des mesures ont été réalisées pour 3 calages différents :

Exercice sigma 5

1)     Représenter sous forme de boîtes à moustaches les mesures collectées. Quelles sont les moyennes et écart-types des 3 échantillons ?

2)     Quel test statistique permettrait de statuer sur l’influence du réglage des cales longitudinales sur la rugosité des pièces ?

3)     On lance sur un logiciel de traitement statistique une ANOVA. Le résultat est présenté dans le tableau suivant. Interprétez-le.

Exercice sigma 5 2

 

Correction

1)      Représentation en boîtes à moustaches :

Exercice sigma 5 3

A

B

C

Moyenne

24,75

21,53

23,6

Ecart-type

0,83

2,49

0,57

2)      Y est une variable continue et X un facteur discret.

Un test de comparaison des moyennes de type ANOVA à 1 facteur est adapté à la problématique car les échantillons sont indépendants. Il reste à vérifier la normalité des échantillons  (test de Shapiro et Wilk) et l’homogénéité des variances (test de Bartlett).

3)      La p-value est de 0,0007 < 5%. Ainsi l’hypothèse H0 de l’ANOVA selon laquelle il y a égalité des moyennes est rejetée. On peut donc affirmer que le réglage des cales longitudinales influence significativement la rugosité des pièces.

Un test de Tukey (comparaison multiple des moyennes) montre que la rugosité avec les calages A et C n’est pas significativement différente.

Pour obtenir la rugosité la plus faible il faut choisir le calage B.

Retour vers la page d'accueil du site

SIGMA-4 : Exercice corrigé

Exercice :

On cherche à minimiser un défaut en sortie d’un processus avec 3 paramètres pilotés à 2 niveaux :

Exercice sigma4 1

Pour ce faire, on utilise la matrice de TAGUCHI L8(23) :

Exercice sigma4 2

L’application de cette matrice conduit aux résultats suivants (3 mesures par essai) :

Exercice sigma4 3

Quelle est la meilleure combinaison de facteurs permettant de minimiser le défaut si on néglige les interactions les plus faibles ?

Correction

On construit le tableau des moyennes puis celui des effets :

Exercice sigma 4

En négligeant les 3 interactions les plus faibles (<0,1), le défaut peut être modélisé par le polynôme suivant :

Y = 0,848-0,238xP+0,152T+0,082xPxT+0,253L

La meilleure configuration est celle qui consiste à régler P le plus élevé (600) et T le plus faible (40) avec le lubrifiant.

Retour vers la page d'accueil du site

SIGMA-3 : Exercices corrigés

Exercice 1

Définir les éléments de la carte de contrôle moyenne/écart-type à mettre en œuvre à la suite de la phase d’observation d’une production de sachets de bonbons de 800 grammes présentée ci-après sachant que l’on souhaite :

÷  Un risque de ne pas détecter un décentrage de plus de 20 grammes autour de la cible inférieur à 5%

÷  Un risque de fausse alarme quasi-nul (0,27%).

Exercice sigma3 3

Sur les 30 mesures : moyenne  = 799,5 grammes – écart-type = 9,9 grammes

Le temps de cycle est de 10 secondes et l’expérience montre que le processus nécessite un réglage toutes les heures en moyenne.

Calculez préalablement l’intervalle de confiance de la moyenne à 95%.

Correction

L’intervalle de confiance de la moyenne  (95%) avec t = 2,045 et N=30 : 

Exercice sigma 3

soit : 795,8<µ<803,2.

a)      Type de carte : moyenne/écart-type (énoncé)

b)      Taille des échantillons : écart de 20 grammes en nombre d’écart-types = 2,0

                            Β<5% ==> n>5 soit n=6

Carte d’observation = 5 prélèvements d’échantillons de 6 :

i

1

2

3

4

5

Xi

804,5

795,3

797,2

800,3

800,2

Si

8,2

10,3

10,8

9,2

11,6

 

Soit :  X bar bar = 799,5, S bar = 10,0 et σestimé = 10,5.

c)       Limites de contrôle: 

  • Moyenne                         LSC = 800 + 1,287 x 10,0 = 813

LIC = 800 – 1,287x 10,0 = 787

  • Ecart-type                        LSC = 1,97 x 10,0 = 20

LIC = 0,03 x 10,0 = 0,3 (non significatif)

 

Exercice sigma 3 2

 

d) La fréquence de prélèvement sera a priori fixée de telle manière qu’une correction soit apportée environ tous les 4 prélèvements

                            ==> f = 1 prélèvement/15 minutes soit tous les (15x60/10) 90 sachets .

Elle sera affinée suite au retour d’expérience après la mise ne œuvre des cartes de contrôle.

 

Exercice 2

Un atelier de menuiserie utilise une scie automatique dont les limites naturelles sont définies par un écart-type de coupe de 0,016 cm centré autour de la consigne.

Un client spécifie son besoin par une valeur cible de 5,5 cm et un intervalle de tolérance de +/- 0,04 cm.

a-Calculer Cp et Cpk. Le processus est-il capable de répondre au besoin client ?

b-A quel taux de non-conformité (%) faut-il s’attendre ?

c-Quelles améliorations faudrait-il apporter pour réduire le taux de rebuts ?

Correction

a-IT = 5,54 – 5,46 = 0,08.

Cp = IT / 6σ = 0,83 (avec σ=0,016)

Cpk = Cp car le processus est centré

Le processus n’est pas capable puisque Cp et Cpk sont inférieurs à 1,33

b- z = 3xCp = 2,5 è Table de la loi centrée réduite : 0,00621 è Tx de non-conformités = 1,24%

c- Les améliorations à apporter sont, par exemple, une bonne lubrification, un guidage de la lame, un bon nettoyage, une bonne maintenance et un meilleur maintien de la cale de montage.

Retour à la page d'accueil du site

SIGMA-2 : exercices corrigés

Exercice 1

A la suite du relevé d’un grand nombre de mesures, un ingénieur qualité calcule les grandeurs caractéristiques suivantes du processus de production de son usine :

  • Position moyenne : 110 (sans unité)
  • Ecart-type : 10

1-Quelle est la probabilité qu’une pièce soit produite avec une caractéristique supérieure à 120 ?

2-Quelle est la probabilité qu’une pièce ait une caractéristique comprise entre 100 et 120 ?

Correction :

1-On utilisé la table de la loi normale centrée réduite avec : δ = 120-110 = 10 et z0= δ /σ = 1.

La probabilité recherchée est donc : 15,87%.

2-Compte tenu de la symétrie de la courbe de Gauss, la probabilité recherchée est : 100% - 2x 15,87% soit 68%.

Exercice 2

On réalise une série de prélèvements d’échantillons de taille n=9 sur une production dont la caractéristique suivie suit une loi normale (μ,σ) avec :

  • μ= 100 cm
  • σ=3 cm

Avec quelle probabilité la distribution des moyennes des échantillons sera-t-elle comprise dans l’intervalle [98cm;102cm] ?

Correction

La distribution des moyennes des échantillons suit une loi normale de moyenne 100cm et d’écart-type 3/√9 soit 1cm.

 δ = 102-100 = 2 et z0= δ /σ = 2 è probabilité que X > 102 = 0,023 (table de la loi normale centrée réduite)

Ecart symétrique autour de la moyenne ==> Probabilité que X à l’intérieur de l’intervalle = 100-2x2,3% = 95,4%

Retour vers la page d'accueil du site

TOC-2 : exercice corrigé

Exercice :

On considère la chaîne de production suivante composée de 4 îlots.

 

Ilot 1

Ilot 2

Ilot 3

Ilot 4

Temps de cycle des machines armant les îlots

(temps / pièce)

2h

2h

2h

2h

Capacité démontrée des îlots

(pièces/semaine)

120

100

80

140

 

Identifier le goulot. Déterminez où placer le buffer et la corde si on met en place une gestion de type DBR.

Correction

L’îlot le moins capacitaire est l’îlot 3 qui constitue le drum. Le buffer est donc à placer entre l’îlot 2 et 3 et la corde entre l’îlot 3 et l’îlot 1.

Retour à la page d'accueil du site

Lean 10 : exercice corrigé

Exercice 1

Proposer un tableau d’indicateurs au poste usinage décrit ci-dessous pour lequel on souhaite mettre en place des réunions quotidiennes 5’

Ce poste, composé de 3 machines est ouvert 7,5h par jour et produit divers articles par lots de 30 avec un temps de cycle de 4 minutes.

Le poste usinage est relié au poste suivant par un kanban dont la boucle a été calculée avec un temps de réponse de 2h10 et une marge de sécurité de 10%. Les containers  contiennent 10 articles.

Le TRS est suivi car on suspecte les machines d’être affectées par une instabilité de cadence qui nuit à l’efficacité du flux tiré mis en place.

Deux des trois machines ont été installées récemment ce qui a permis l’embauche de 2 nouveaux usineurs. On note depuis de nombreuses blessures légères (coupures) par négligence du port des gants de sécurité.

Les pièces sont contrôlées à la sortie de l’usinage et un système de « bac rouge » a été mis en place. Le directeur ne cesse de répéter qu’il souhaite que le taux de rebuts reste maîtrisé à moins de 2%.

Correction

SECURITE : la problématique de sécurité concerne actuellement le non port des EPI qui entraînent des accidents du travail

  • nombre de jours depuis le dernier accident du travail
  • dernier accident pour non port des EPI

QUALITE : l’objet de l’attention du directeur est le taux de rebuts qui doit rester sous 2%. Afin que  les opérateurs s’approprient cet objectif, on exploite le relevé quotidien de pièces dans le bac rouge

  • suivi du taux de rebuts journalier (nbr pièces « bac rouge »/nbr pièces produites) avec une ligne rouge à 2%

DELAIS : le respect des délais avec un kanban consiste à vérifier que le délai de réponse n’est pas dépassé chaque fois qu’un lot est lancé en fabrication

  • suivi quotidien du % de lots dont le temps de traversée est supérieur à 133 minutes (une marge de 10 minutes est réservée pour tenir compte des délais d’acheminement des lots et des kanbans)

COUTS : les écarts de TRS mesurent les écarts de coûts par rapport à un coût standard calculé à pleine charge (3 machines x 7,5 heures x 60 / 4 minutes = 337 pièces/jour). Cependant avec un kanban on ne vise pas un TRS de 100%. Ce qui coûte, ici, ce sont les écarts de cadence et les défauts de qualité (déjà suivis)

  • suivi quotidien du taux de performance du poste « usinage » (temps net/temps de fonctionnement)

Exercice lean 10

Retour à la page d'accueil du site

Lean-9 : exercices corrigés

Exercice 1

Voici le relevé TRS d’une équipe de production (poste « ajustage ») :

Exercice lean 9

              Calculer le TRS du poste « ajustage » et les taux intermédiaires.

Correction

•       TO = 8h

•        Arrêts planifiés = pauses + arrêt déjeuner + réunions + formation = 15 min + 1h + 2x15min + 30min = 2h15

•        TR = 8h – 2h15 = 5h45 = 345 min è T engagement = 72%

Nombre de pièces conformes réalisées = 4

  • TU = 4 x 60min = 240 min
  • TRS = TU/TR = 70%
  • T qualité = 100% (toutes les pièces en sortie d’ajustage sont réputées conformes)
  • Temps de fonctionnement = 5h45 – arrêts non planifiés = 345min – 60min
  • T disponibilité = 285 / 345 = 83%
  • Ecarts de cadence = TF – TN = 285 – 240 = 45 minutes è T performance = 84%

 

Exercice 2

Un tour d’usinage ouvert en 1x8h (2 fois 10 minutes de pause) a produit hier 234 pièces dont 21 pièces rebutées. Le service de maintenance est venu faire des contrôles entre 14h12 et 15h07 (ce qui a interrompu la production) et l’opérateur s’est absenté le matin 1h pour une formation obligatoire.

Quel est le temps de cycle théorique de ce tour en considérant qu’il ne présente jamais d’écarts de cadence ? Quel était le TRS hier ?

Correction

Le temps requis est de 8x60min-2x10min=460 minutes.

Le temps net est alors : 460 minutes – 55 minutes – 60 minutes = 345 minutes (sans écarts de cadence).  Pendant le temps net, le tour a produit 234 pièces soit un temps de cycle théorique de : 345/234  1,47 minutes.

Le TRS est alors égal à (234-21)/(460/1,47)=68%

Retour vers la page d'accueil du site

Lean-6 : exercice corrigé

Exercice :

—  Soit un poste d’assemblage de 3 produits A,B et C différents faisant appel à la fabrication d’ébauches A’, B’ et C’ réalisés par des postes différents avec les temps de cycles suivants :

  • TC1 (ébauches A’) = 10 minutes
  • TC2 (ébauches B’) = 20 minutes
  • TC3 (ébauches C’) = 40 minutes

Exercice lean 6

—  L’usine est ouverte 16 jours par mois, 10h par jour

              avec 2x15 minutes de pause (soit 570 minutes/jour).

—  La demande moyenne mensuelle de produits est :

  • A = 896 soit 56 unités/jour
  • B = 464 soit 29 unités/jour       
  • C = 464 soit 29 unités/jour

Etudier le nombre d’opérateurs à affecter aux processus 1, 2 et 3 avec et sans boîte Heijunka sachant que le poste d’assemblage est aligné sur le takt time.

Correction

—  TT = 570/114= 5 minutes

—  Le temps de cycle du poste d’assemblage est donc 5 minutes

 

SANS NIVELLEMENT

Si chaque jour, tous les produits A sont réalisés puis tous les B et enfin tous les C, cela conduit à des vagues de travail en amont, nécessitant des pics de ressources :

· Poste 1 (ébauches A’) = TC/TT = 2 personnes employées pendant 4h40 puis inoccupées

· Poste 2 (ébauches B’) = TC/TT = 4 personnes employées pendant 2h25 puis inoccupées

·  Poste 3 (ébauches C’) = TC/TT = 8 personnes employées pendant 2h25 puis inoccupées

Soit au total 14 personnes partiellement occupées au poste amont.

 

AVEC NIVELLEMENT

Le pitch est ici impulsé par la demande client soit 5 minutes

En revanche, le prélèvement au niveau de chaque poste peut être ajusté afin de niveler la production sur toute la journée :

·       Poste 1 (ébauches A’) = 570/56 ≈ 10 (1 picth sur 2)

·       Poste 2 (ébauches B’) = 570/29  ≈ 20 (1 picth sur 4)

·       Poste 3 (ébauches C’) = 570/29 = ≈ 20 (1 picth sur 4)

·       Poste 1 (ébauches A’) = TC/10 = 1 personne à plein temps

·       Poste 2 (ébauches B’) = TC/20 = 1 personnes à plein temps

·       Poste 3 (ébauches C’) = TC/20 = 2 personnes à plein temps

Soit au total 4 personnes employées à plein temps au poste amont (donc 3,5 fois moins que sans le nivellement).

Retour à la page d'accueil du site

Lean-5 : exercices corrigés

Exercice 1

Une entreprise de production est caractérisée par les données suivantes :

Exercice lean 5

  • Temps de prise en compte d’un OF : 30 secondes
  • Temps d’opération : 8 minutes par lot
  • Temps de transport : 1,5 minutes

Les dirigeants de l’entreprise souhaitent que le stock n’excède pas 10% de la production quotidienne.

Combien de kanban faut-il prévoir pour une demande de 4800 unités par journée de 8h avec une capacité de contenants de 22 pièces ?

Correction

Le nombre de cartes est le suivant

  • K =  Conso x (TR+TS) / N

Soit K = 4800 x (0,5 + 8  + 1,5)/(8x60) / 22 = 4,6 soit 5 avec TS = 0

  • TS est choisi tel que K X 22 ≤ 10% x 4800 soit K ≤ 21      
  • Par exemple, avec un stock équivalent à 5% de production quotidienne, K=10.

Le Temps de sécurité est de : (10-4,6) = 4800 x TS /22

soit TS = 680’ x 118,8/4800 è TS = 16,8 minutes

Exercice 2

Il est décidé de mettre en place un flux tiré sur une chaîne de production en déployant des cartes kanban entre 2 postes de travail. On souhaite dimensionner les containers à mettre en place (c'est-à-dire déterminer le nombre N de pièces P à mettre dans chaque container).

On sait également que:

  • —  Le poste en amont du kanban travaille par lots de 50 pièces avec un délai d’exécution de 2 heures par lot.
  • —  Ce poste produit les pièces qui font l’objet du kanban mais également d’autres pièces avec un même délai d’exécution.
  • —  Le temps de changement de série est de 30 minutes pour toutes les pièces.
  • —  La consommation moyenne de pièces par le poste aval est de 1600 pièces P par mois (8 heures de production quotidiennes). 

Pour simplifier la gestion du flux, on veut limiter le nombre de cartes kanbans à 10 et maintenir un stock de sécurité de 10 pièces P.

On fait l’approximation que le temps de circulation des cartes kanbans entre les 2 postes est négligeable.

Calculer N.

Correction

—  K = 10 = [Consommation x (TR + TS)]/N + (Taille lot/N) – 1

              avec C = 1600/20/8=10p/h

—  Soit N = [Consommation x (TR + TS)] + Taille lot] / (K+1) avec :

  • TR = 0,5 + 2 + temps aléas

Où temps aléas = stock sécurité/C = 10/10 = 1h soit TR = 3,5h

  • TS = 0,5 +2 = 2,5

N = [10x (3,5 + 2 ,5) + 50]/11 = 110/11 = 10

Retour à la page d'accueil du site

Correction de l'exercice Lean-3

Dans le billet La VSM et la mise en place d'un flux au plus juste, nous avons déterminé la famille de produits prépondérante (produits A,D et F) et établi la VSM de la société ALPHA.

Pour établir la VSD, nous appliquons la méthode d'analyse de la VSM en 6 étapes.

Nous détaillons ci-après chacune de ces 6 étapes afin de compléter le module de e-learning consacré à la VSM.

 

  I.   Déterminer le rythme de production correspondant à la demande client lissée dans le temps et vérifier la stabilité de la production

Il s'agit de calculer le Takt time pour la famille de produits A,D et F. Rappelons les consommations mensuelles et quotidiennes de ces 3 produits :

Vsm conso adf

Le temps requis mensuel est identique à chaque poste : 20 jours x (8hx3600secondes - 20 minutesx60secondes) = 512.000 secondes

Takt Time = 512.000 secondes / 27.600 produits = 20 secondes.

La mise en oeuvre des règles II et III nécessite une certaine stabilité des processus de production, c'est à dire des taux de qualité, de disponibilité et de fiabilité de chaque processus suffisants (TRS > 75%) pour permettre un enchaînement robuste des processus composant la chaîne de production. Si ce n'est pas le cas, il est préférable de lancer des chantiers d'amélioration des performances de chaque processus (TPM, 5S, ...) avant de poursuivre la mise en place d'un flux au plus juste.  

  II.  Mettre en place un flux continu (« one piece flow ») chaque fois qu’il est possible de le faire : il s’agit donc de regrouper les processus afin de supprimer les stocks intermédiaires. 

L'application de cette règle nécessite d’établir un diagramme des temps ou Yamasumi (bar chart des temps de cycle par équipe de chaque processus comparé au TT) afin d'étudier l'équilibrage des charges par poste permettant de répondre au Takt time (cf. règle I).

Les temps de cycle portés sur le diagramme sont des temps de cycles réels (ou démontrés) par îlot de production :

TC réel = (TC / TRS) / nombre d'opérateurs ou de machines

Pour les processus dont le TC réel est :

  • Supérieur au TT : le processus n’est pas capacitaire (il ne permet pas de répondre à la demande). Un chantier d’amélioration du flux sera à conduire (analyse de déroulement, SMED, 5S, TPM,…) faute de quoi il sera nécessaire de dupliquer le poste pour le rendre capacitaire. 

Lorsque le dépassement est légèrement supérieur, un recours aux heures supplémentaires peut permettre de tenir le TT

  • Inférieur au TT : le regroupement du processus avec le(s) processus amont(s) ou aval(s) est à étudier en vue de mettre en place un flux continu.

Vsm5 4

La mise en place d'un flux continu transforme les ateliers spécialisés (par métiers ou types de machines) en cellules "produits" (en U ou en ligne). Cette transformation s’accompagne bien souvent d’une réduction des surfaces de production parce que le flux continu nécessite de rapprocher physiquement les postes de travail.

Le flux continu conduit à développer de la polyvalence/poly-compétences puisque chaque opérateur est amené à travailler partiellement sur chacun des processus compactés. La répartition du travail entre opérateurs nécessite d’établir une analyse de déroulement précise des processus :

  • en distinguant les temps-homme des temps-machine (un opérateur doit pouvoir réaliser des tâches à plus-value pendant qu’une machine réalise un cycle)

  • en veillant à supprimer les tâches sans plus-value, les tâches hors cycle (quitte à les confier à du personnel support).

Cette analyse de déroulement est l’occasion de réduire le temps de cycle en modifiant les opérations de chargement en pièce à pièce et en automatisant, si possible, les opérations de déchargement.

On vérifiera, en outre, que les temps de cycle effectifs (temps machine + temps de chargement/déchargement + temps de changement de série) des machines ont une marge par rapport au TT (règle issue du Toyota Prodction System : 20% environ), afin d’avoir une flexibilité suffisante en cas de variation raisonnable de la demande client.

 III.  Instaurer un système de flux tiré lorsqu’un flux continu n’est pas envisageable (opérations géographiquement éloignées, machines partagées avec d’autres productions, rassemblement de processus induisant un TC > takt time, TC ou temps d'ouverture différents entre l’aval et l’amont).

  • La mise en place d’un flux tiré entre deux processus n’est possible que si les processus concernés sont capacitaires (capables de répondre à la demande) et si les produits relèvent d’une demande régulière et stable.
  • Les outils les plus usuels pour mettre en place un flux tiré sont . 
    • Le kanban (avec dépôt de stockage entre les 2 postes liés par le kanban). On distingue en particulier le kanban classique et le kanban de signalisation,
    • Le couloir FIFO, et,
    • Le CONWIP.

Pour un kanban classique, le nombre de cartes à mettre en circulation est donné par la formule suivante :

Nbr Kanbans = [Taille lot poste amont/Contenant – 1] + [(temps de sécurité) x Conso / Contenant] + [temps de réapprovisionnement x Conso / Contenant]

  • Taille de lot et Contenant en nombre de pièces
  • Conso en nombre de pièces consommées / jour
  • Les temps de sécurité et de réapprovisionnement sont calculés en jours

La localisation du dépôt de stockage doit être conçue de telle manière que le processus amont reste respondable du stock qu'il produit (donc physiquement rattaché au processus amont).

Vsm kanban final

Vsm tableau kanban final 1

Vsm14

 IV.  Piloter la production sur un seul processus appelé processus régulateur (ou pacemaker). La règle pour le définir est de considérer qu’il ne peut y avoir de zone de stockage (même type kanban) ou de flux tiré en aval du processus régulateur.

  • Le temps de traversée à compter du pacemaker détermine le délai de livraison à partir de la commande client.
  • Le processus régulateur est donc généralement le dernier processus avant la livraison client ou le dernier avant un enchaînement de FIFO précédent la livraison client.
  • Lorsque la demande client est irrégulière ou marquée par un délai de livraison très court, le processus régulateur est placé sur le service "expédition" que l'on dote d'un supermarché (dépôt de stockage) avec mise en place d'un flux tiré avec le processus qui le précède. Le dépôts de stockage ne sera cependant pas retenu lorsque les produits finis sont personnalisés, chers et/ou encombrants.  

Le dimensionnement du supermarché fait intervenir le délai de réapprovisionnement (ou de remise à disposition) des produits qui le composent. Ce délai d'autant plus important que que les tailles des lots des processus en aval sont importants : ainsi, les tailles de lot conditionnent les volumes de stocks de produits finis

  • Si le temps de traversée du processus est inférieur au délai de livraison du client, le pacemaker est placé en entrée de chaîne (production à la commande) et il n’est pas nécessaire, du point de vue client, de transformer le flux poussé en flux tiré. Inversement, si le délai de livraison client est très ambitieux, cela impose un positionnement du pacemaker très en aval, ce qui est susceptible de modifier les choix à prendre au regard des règles I et II.
  • Ce n’est donc plus le MRP qui lance les ordres de fabrication à chaque processus indépendamment les uns des autres. La chaîne de la valeur initialement constituée d’une succession d’îlots de production devient une véritable chaîne de processus interdépendants (flux tirés en amont du processus régulateur et flux continus en aval).  

Vsm13 2

 V.  Lisser la charge (à la fois en volume et entre les produits) afin d’éviter de produire l’ensemble de la production de chaque produit à un rythme incohérent avec la fréquence de livraison.

Le lissage de charge permet de livrer au client chaque produit avec des délais plus courts, donc d’offrir une plus grande flexibilité (en cas d’évolution de la demande client), de diminuer les lots et les stocks intermédiaires et également de réagir plus tôt à un problème qualité.

On cherche à produire chaque lot de chaque pièce à une cadence cohérente de la fréquence de livraison. Ainsi pour une livraison quotidienne, on produira chaque lot chaque jour (CPC = 1 jour) et si possible on essaiera d'atteindre des fractions de journées.

Nombre de changements de série possibles / jour= (Temps disponible - consommation journalière x TC) / temps de changement de série

  • Cela implique donc de multiplier les changements de série ce qui est raisonnable uniquement si un effort de réduction de ces temps est entrepris (voir règle VI).
  • Cela revient donc à fixer un pas de production: les commandes aux processus régulateur (et donc à l’ensemble de la chaîne par le biais des systèmes à flux tirés mis en place) seront donc passés suivant ce pas ou des multiples de ce pas.
  • Le pas de production est a priori calé sur la plus petite taille de lot du processus régulateur, si possible multiple du volume d’un contenant de livraison. Si le temps de changement de série est nul, le pas de production est égal au volume d'un contenant de livraison x TC du processus régulateur.
  • Une fois ce pas défini, et s'il est bien inférieur au volume de production quotidien, une matrice de lissage de la charge (ou boîte Heijunka) pourra être utilisée pour définir par tranche horaire les types de produits à lancer en fabrication. La boîte Heijubka n'est pas un programme ferme de production (ce qui reviendrait à instaurer un flux poussé) mais un prévisionnel à adapter en temps réel à la consommation réel du processus aval.

Vsm7 2

Vsm12 1

 VI.  Réduire la taille des lots

Afin de réduire les dépôts de stockage (et les coûts associés de gestion), augmenter la flexibilité de l’entreprise aux variations de la demande client (en réduisant les temps de remise à disposition des stocks) et assurer un meilleur lissage de la production (voir règle V), une action de réduction de la taille des lots au niveau de chacun des processus est à conduire.

  • Pour ce faire, il faudra s’attaquer à la réduction des temps de changement de série. On visera dans un premier temps la règle empirique adoptée par Toyota du « 1 pour dix » : les temps alloués aux changements de série ne doivent pas dépasser 10% du temps de disponibilité des machines.
  • L'acronyme SMED (single minute exchange of die) indique que l'on vise un temps de changement de série de moins de 10 minutes (single-minute). Compte tenu de la règle précédente, cela revient à permettre un changement de série (de moins de 10 minutes) toutes les 90 minutes de production. Ceci n'est qu'un ordre de grandeur, l'obejctif étant de réduire le temps de changement de série au strict nécessaire.

***

L'application des 6 étapes d'analyse conduit ainsi à la VSD suivante :

Vsd final

 

Retour à la page d'accueil du site

 

Lean-3 : exercice corrigé

Exercice :

La société ALPHA commercialise 7 produits qui sont fabriqués au sein d’un atelier comportant 4 postes de production  et un poste contrôle/expédition (1 opérateur par poste). La matrice produits / procédés est la suivante :

Exercice lean 3

L’atelier est ouvert 8h par jour avec 2 pauses de 10 mn (on compte 20 jours ouvrés par mois).

La demande client  mensuelle moyenne est la suivante avec des variations maximales de 50% autour de ces moyennes :

–      Produit A : 15.600

–      Produit B : 5.100

–      Produit C : 3.600

–      Produit D : 7.200

–      Produit E : 5.100

–      Produit F : 4.800

Les produits sont livrés par palette de 120. La production est gérée par un MRP qui établit chaque jour le programme de production de chaque produit à chaque poste. Les commandes client sont établies hebdomadairement et les prévisions mensuellement. La société ALPHA répercute celles-ci vers ses fournisseurs à la même fréquence (1 livraison deux fois par semaine).

On relève dans l’atelier les caractéristiques suivantes de chaque poste

 

Poste 1

Poste 2

Poste 3

Poste 4

Temps de cycle

2 secondes

10 secondes

9 secondes

8 secondes

Délai d’exécution

30 secondes

10 secondes

27 secondes

20 secondes

Temps de C/O

30 minutes

40 minutes

20 minutes

Pas de C/O

TRS

90%

85%

90%

100%

Stock en amont du poste

matière première équivalente à 6000 produits

Produit A = 7000

Produit D = 4000

Produit F = 1000

Produit B = 2000

Produit E = 3000

 

Produit A = 2000

Produit D = 1500

Produit F = 500

 

Le stock de produits finis à l’expédition est le suivant (1 départ quotidien en camion):

•       Produit A = 1080

•       Produit B = 220

•       Produit C = 380

•       Produit D = 720

•       Produit E = 260

•       Produit F =720

 

Etablir la VSM de la famille de produits prépondérante (correction dans le billet du BLOG « la VSM et la mise en place d’un flux au plus juste ») en prenant pour hypothèse que les temps de valeur ajoutée sont égaux aux temps de cycle de chaque processus.

Analyser la VSM pour établir la VSD avec un flux au juste besoin.

Voir la correction

Lean-2 : exercice corrigé

Exercice :

Une ligne de production ouverte en 1x8 (20 minutes de pause par équipe) est composée d’une cellule d’usinage (TC = 5 min) et d’une cellule de soudure (TC=  3 min).

La demande journalière moyenne est de 460 pièces.

1) De combien d’opérateurs faut-il armer chaque cellule pour équilibrer en « flux au juste besoin » la ligne de production ?

2) Combien d’opérateurs pourront être transférés à une autre activité si la demande baisse de 20% ?

3) Une nouvelle technique d’usinage permet de réduire le TC à 3 min. On souhaite en profiter pour mettre en place un flux continu. Quelles en sont les conséquences ?

Correction

1)      Takt time = (7h40 x 60min/h) / 460 = 1 min

Pour équilibrer le flux de production au juste besoin, le Lean préconise d’aligner les temps de cycle des cellules sur le takt time.

Cela conduit à équilibrer les capacités sur la demande client :

—  Usinage = TC / TT = 5 opérateurs

—  Soudage = TC/TT = 3 opérateurs

2)      Si la demande baisse de 20%, cela correspond à 460 – 92 = 368 pièces/jour ==> TT = 1,25 min

Il faut alors réduire le nombre d’opérateurs dans chaque cellule :

—  Usinage = TC / TT – 5 = -1 opérateur (-20%)

—  Soudage = TC/TT – 4 = -0,6 poste. Ainsi, pour répondre à la demande client on gardera le même nombre d’opérateurs avec une légère surcapacité sans risque cependant de créer du stock car le goulot se trouve en amont.

Soit au total 7 opérateurs.

3)      Il est nécessaire de regrouper les 2 cellules en une seule cellule usinage/soudage en développant la polyvalence des opérateurs. Cette cellule réalisera la double opération en 6 minutes (sans stock intermédiaire). Le nombre d’opérateurs à prévoir est alors :

Usinage/Soudage = TC / TT = 6 / 1,25 = 4,8 soit 5 opérateurs polyvalents au lieu de 7 précédemment.

Retour à la page d'accueil du site

EO-3 : exercice corrigé

Exercice :

On s’intéresse à une entreprise de montage de vélos destinés aux enfants.

La prévision des ventes à 6 semaines de l’entreprise est la suivante :

 

S+1

S+2

S+3

S+4

S+5

S+6

Vélos d’enfant

800

900

800

1000

800

900

 

Nous sommes le 1er jour de la semaine S.

Le montage d’un vélo est réalisé en 1 semaine.

Compléter le calcul de besoins nets de l’article « roue » à 5 semaines :

Exercice eo 3

Correction

Les besoins bruts se déduisent de la prévision des ventes du produit fini, décalé du délai de montage et multiplié par le coefficient de nomenclature (2 roues par vélo).

Le stock prévisionnel en fin de semaine S sera constitué du stock initial (4000) mois le stock de sécurité (500) moins les roues nécessaires aux ventes de la semaine S+1 (consommées en S soit 2 x 800).

Exercice eo3 correction

Retour vers la page d'accueil du site

 

EO-2 : exercices corrigés

Exercice 1 -Temps de cycle et durée opératoire

Un robot de traitement de surface sort un panier de 14 pièces d’un bain de décapage toutes les 90 minutes. Quel est le temps de cycle de l’opération de décapage ? Quelle est la durée opératoire de cette opération ?

 Correction

Toute pièce entrant en opération y séjourne 90 minutes (avec 13 autres pièces) è DE = 90 minutes

TC = 90 / 14 = 90 / 14 = 6,4 minutes

Exercice 2-Temps de cycle et capacité de production

Un processus met en œuvre 6 fours de formage travaillant en parallèle en 4x8 (128h par semaine). Compte tenu d’un taux de rendement de 70%, la capacité démontrée est de 215 pièces par semaine.

Quel est le temps de cycle d’un four de formage ?

Correction

La capacité à plein rendement (100%) d’un four est TO/TC = 128 x 60 / TC.

Compte tenu d’un rendement de 70% et 6 fours : Capacité = 215 = 6 x 0,7 x (128 x 60 / TC) è TC = 2h30

Exercice 3-Takt time

Une société fabrique 6 produits différents et met en œuvre 4 processus. La matrice produits / processus est la suivante :

Exercice eo 2

Autres données :

¡ Journée de travail de 8h avec 2 pauses de 10 mn

¡  20 jours travaillés par mois

¡  Demande client  mensuelle :

¡  Produit A :  15600 - Produit B : 2200 - Produit C : 1020 - Produit D : 7.200 - Produit E : 1900 - Produit F : 4800

Quel est le Takt time de la famille de produits dominante ? Le processus 2 est caractérisé par un temps de cycle machine de 60 secondes. Combien de machines faut-il pour répondre à la demande client ?

Correction

La famille de produits dominante est la famille A,D et F représentant 85% des ventes.

Takt Time = (8 x 3600s – 20 x 60) x 20 / (15600+7200+4800) = 512000 / 27600 = 20 s

Nombre de machines nécessaires = TC / TT = 3

Exercice 4-Takt time, temps de traversée des stocks et lead time

Une usine fabrique des balances électroniques et en vend 1500 par semaine.

L’usine fonctionne en 2x8. Chaque équipe bénéficie de 20 minutes de pause et les temps de repas ne sont pas décomptés dans les heures de travail. Chaque quart de travail débute par une réunion QRQC de 10 minutes.

La gamme de fabrication est constituée d’un seul processus qui met en œuvre une machine dont le temps de cycle est de 12 minutes. On constate un niveau de stock en amont de ce processus de 2000 unités.

De combien de machines faut-il disposer pour que ce processus réponde à la demande client ?

Quel est le temps de traversée du stock ?

Quel est le lead time de ce processus, son taux d’efficience et son indice de tension de flux ?

Correction

TR par jour = TO – 2 x (20min + 10 min) = 15h = 15 x 60 = 900 min

TT = TR par semaine / Conso hebdo = 5 x 900 / 1500 = 3 minutes

Nbr de machines = TC / TT = 12 / 3 = 4

Temps de traversée du stock (tts)= 2000 x TT = 6000 minutes = 100 h soit 100h/15h ≈ 7 jours de production

LT = tts + DE = 6012 mn è Efficience = TVA / LT = TC / LT = 12 / 6012 = 0,2% et i = 501

Retour à la page d'accueil du site

La boîte Heijunka

Haijunka

La boîte Heijunka est un outil dont la finalité est de mixer et niveler les ordres de fabrication de plusieurs produits, caractérisés chacun par une forte variabilité des commandes, donc peu propices à la mise en place d’un tableau kanban.

Pour ce faire, on moyenne la production par produit sur une période suffisamment longue pour gommer les pics et les creux, lissant l’objectif de production sur cette période.

Heijunka2

Il s’agit alors de niveler la production en références « produit » et en volumes sur la période couverte par la boîte Heijunka (équipe, journée, semaine,...) afin :

·       De réduire l’en-cours (donc les cycles), en diminuant la taille des campagnes de fabrication de chaque référence, et,

·       De transmettre aux postes amont une demande régulière en quantité, permettant de réguler les variations de ressources à mettre en œuvre (correspondant à une variation entre le temps requis et le temps requis + quelques heures supplémentaires sans avoir à « embaucher » des personnels de plus).

Elle est particulièrement adaptée en fin de flux, juste avant l’expédition, par exemple sur une opération d’assemblage final (ou l’opération la plus en amont d’un flux continu avant l’expédition).

La boîte Heijunka est souvent associée à un séquenceur permettant de présenter au poste de travail les OF sortis de la boîte Heijunka suivant  une logique FIFO :

Sequenceur

On peut considérer sa mise en œuvre comme un flux tiré par la demande réelle, si les OF pris en compte pour remplir la boîte correspondent à des commandes fermes (ce qui implique que le LT entre l’opération faisant l’objet de la boîte et l’expédition est inférieur au délai de commande).

Une boîte Heijunka est organisée en colonnes représentant une même période de temps (appelée le pitch) et en lignes par famille de produits.

Les temps de cycle de fabrication des produits peuvent être différents ainsi que les temps de changement de série : ainsi, à un pitch peut correspondre un nombre de produits fabriqués différent en fonction de la famille considérée (donc un nombre de cartes [1 carte = 1 container de x pièces] différent dans chaque alvéole de la boîte).

L’agencement des cartes sur la période couverte par la boîte Heijunka (journée, semaine) est revue à chaque début de période en fonction des commandes fermes prévues pour la période suivante : en ce sens, la boîte Heijunka permet d’adapter le profil de production même en cas de forte variabilité de la demande.

Illustrons ceci par deux exemples

EXEMPLE 1 : production avec changement de série

Soit un poste de production ouvert 8h par jour qui fabrique 3 produits A (TC = 1 min), B (TC = 2 min) et C (TC = 5 min). Le temps de changement de fabrication est de 10 minutes. La demande journalière moyenne est la suivante :

·       A = 200           soit un temps de production avec C/O de 210 minutes (près de 4h)

·       B = 50             soit un temps de production avec C/O de 110 minutes (près de 2h)

·       C = 20             soit un temps de production avec C/O de 110 minutes (près de 2h)

Cas 1 : sans nivellement de la production

Produits 08h 09h 10h 11h 13h 14h 15h 16h
A = 200 XXXXXXXXXXXX        
B = 50         XXXXX    
C = 20             XXXXX

Les en-cours sont ponctuellement importants et chaque produit n’est délivré qu’une fois par jour.

Cas 2 : avec nivellement de la production

Le calcul du pitch nécessite de comparer le temps nécessaire de production  sur la journée (200x1+50x2+20x5=400 minutes) avec le temps requis (8h x 60 = 480min).

La différence correspond au temps que l’on pourra consacrer aux changements de série (80 min) que l’on compare à un temps de changement de série (10min) : 80/10 = 8 changements de série possibles par journée de production.

Il faudra donc produire chaque type de pièce chaque 1/8 jour, donc toutes les heures. C'est le picth de la boîte Heijunka.

Pitch = Période P x Temps de CO / (Temps requis sur la période P – temps total de production sur la période P)

Avec 1 pitch de 1 heure, le temps dévolu à la production est de 50 minutes (60 minutes – 10 minutes de C/O), soit :

- A = 50/1 = 50 produits soit 200/50  = 4 picths/jour

- B = 50/2 = 25 produits soit 50/25 = 2 pitchs/jour

- C = 50/5 = 10 produits soit 20/10 = 2 pitchs par jour

Produits 08h 09h 10h 11h 13h 14h 15h 16h
A = 200 50   50   50   50  
B = 50   25       25    
C = 20       10      

10

Les en-cours sont ainsi limités à 50 unités et chaque produit est délivré plusieurs fois par jour (au minimum 2 fois/jour).

On remarque que comme pour le « kanban », plus les temps de changement de série sont faibles, plus les tailles de lot sont réduites et plus le pitch correspond à un laps de temps réduit.

Ainsi, dans cet exemple, si le temps de changement de série passe à 5 minutes, on pourra réduire le pitch à 30 minutes et niveler 2 fois plus la production.

 

EXEMPLE 2 : nivellement de ressources amont grâce à une boîte Heijunka

Soit un poste d’assemblage de 3 produits A,B et C différents faisant appel à la fabrication d’ébauches A’, B’ et C’ réalisées par des postes différents avec les temps de cycles suivants :

·       TC1 (ébauches A’) = 10 minutes

·       TC2 (ébauches B’) = 20 minutes

·       TC3 (ébauches C’) = 40 minutes

L’usine est ouverte 16 jours par mois, 10h par jour avec 2x15 minutes de pause (soit 570 minutes/jour). La demande moyenne mensuelle de produits A, B et C est la suivante :

·       A = 896 soit 56 unités/jour

·       B = 464 soit 29 unités/jour        TOTAL = 114 unités/jour donc : Takt Time (TT) = 570/114= 5 minutes

·       C = 464 soit 29 unités/jour

Conformément aux règles d’équilibrage du Lean, le poste d’assemblage est ajusté pour avoir un temps de cycle de 5 minutes afin de répondre à la demande client.

Exemple heijunka

Cas 1 : sans nivellement de la production

Si chaque jour, tous les produits A sont réalisés puis tous les B et enfin tous les C, cela conduit à des vagues de travail en amont, nécessitant des pics de ressources :

·       Poste 1 (ébauches A’) = TC/TT = 2 personnes employées pendant 4h40 puis inoccupées

·       Poste 2 (ébauches B’) = TC/TT = 4 personnes employées pendant 2h25 puis inoccupées

·       Poste 3 (ébauches C’) = TC/TT = 8 personnes employées pendant 2h25 puis inoccupées

Soit au total 14 personnes partiellement occupées au poste amont.

Cas 2 : avec nivellement de la production

Le pitch est ici impulsé par la demande client soit 5 minutes

(114 produits à assembler par jour avec un temps de cycle de 5min sans C/O = temps requis du poste d’assemblage).

En revanche, le prélèvement au niveau de chaque poste peut être ajusté afin de niveler la production sur toute la journée :

·       Poste 1 (ébauches A’) = 570/56 ≈ 1 pièce toutes les 10 minutes (1 picth sur 2)

·       Poste 2 (ébauches B’) = 570/29  ≈ 1 pièce toutes les 20 minutes (1 picth sur 4)

·       Poste 3 (ébauches C’) = 570/29 = ≈ 1 pièce toutes les 20 minutes (1 picth sur 4)

Ce qui conduit à la boîte Heijunka suivante :

Produits 8h00 8h05 8h10 8h15 8h20 8h25 8h30 8h35 8h40 8h45 8h50 8h55 9h00 ...
A 1   1   1   1   1   1   1  
B   1       1       1        
C       1       1       1    

Compte tenu d’un prélèvement d’ébauches plus régulier à chaque poste, les ressources nécessaires sont :

·       Poste 1 (ébauches A’) = TC/10 = 1 personne employée à plein temps

·       Poste 2 (ébauches B’) = TC/20 = 1 personnes employée à plein temps

·       Poste 3 (ébauches C’) = TC/20 = 2 personnes employées à plein temps

Soit au total 4 personnes employées à plein temps au poste amont (donc 3,5 fois moins que sans le nivellement).

La boîte Heijunka permet ainsi d’éviter le gaspillage de ressources.

Voir tous les billets du BLOG

DDMRP / demand-driven MRP

DDMRP : une méthode d’ordonnancement de la production tirée par la demande

 

Introduction

 

Le DDMRP, Demand Driven MRP ou « MRP piloté par la demande », est un outil d’ordonnancement  de la production, qui a été détaillé en 2011 dans le livre « Orilcky’s Material Requirement Planning » écrit par Carol PTAK et Chad SMITH.

Le DDMRP a pour particularité de réhabiliter la notion de stocks, comme moyen permettant de dissocier la production de la demande.

Le DDMRP acte des défauts inhérents au modèle MRP : en effet, celui-ci a tendance à générer  de nombreux stocks inutiles et donc des coûts importants. Cela résulte du fait que le MRP s’appuie sur une prévision plus ou moins juste de la demande (on estime que les meilleures entreprises atteignent une qualité de prévision de 75 à 80% par article par mois – autrement dit, qu’elles se trompent de 20 à 25% !) pour produire en « flux poussé » (accumulation de stock). Le MRP a également du mal à tenir compte des aléas de production, ainsi que de la variabilité des processus et de la demande.

Ainsi, le modèle MRP conduit à une répartition générale des articles dans l’usine oscillant entre « trop peu » et « trop », en fonction des variations de la demande. L’effet « coup de fouet » est un parfait exemple de cette oscillation, d’autant plus importante que l’on remonte vers l’amont de la Supply Chain, en réaction à une simple variation de la demande.

Coup de fouet 1

C’est en réaction à ces défauts que les démarches Lean, 6 sigma et théorie des contraintes se sont développées, avec pour point commun « une vision flux » de la production, suggérant d’abandonner le MRP pour l’ordonnancement quotidien de la production.

Le DDMRP combine ainsi ces trois méthodologies et les réconcilie avec le modèle MRP.

 

1) Le principe DDMRP

 

Le DDMRP vise à comprimer les cycles pour répondre à la demande client tout en absorbant les variabilités (aléas, variations de la demande) par la mise en place de buffers. Il a pour conséquence de tirer le flux de production de l’aval vers l’amont.

C’est un processus en 5 étapes.

1-Positionner les buffers

2-Dimensionner les buffers

3-Ajuster dynamiquement les buffers

4-Planifier les réapprovisionnements à partir de la demande réelle

5-Exécuter les ordres avec l'appui d’alertes paramétrées

Le MRP n’est cependant pas abandonné : en effet le processus, PIC/PDP reste valable pour prévoir le niveau des ressources. L’ordonnancement de la production suivant le DDMRP ne concerne que les articles aux points de commande stratégiques de la Supply Chain, les autres restants déterminés par la méthode classique MRP

Les approches Lean ou 6 sigma, ne sont pas non plus remises en cause par le DDMRP et restent totalement nécessaires à l’amélioration continue car, comme le montrent les règles de dimensionnement des buffers, ces derniers sont directement liés au délai de réapprovisionnement de fabrication et à la variabilité des processus. Donc plus on tend à les réduire, plus les buffers, et donc le stock moyen, sera faible.

 

2) Les 5 étapes DDMRP

 

2.1- Positionner les buffers

On commence par identifier les « points de commande » stratégiques qui ne permettent pas d’atteindre le cycle demandé par le marché et y positionner des buffers (ce sont finalement des stocks « virtuels ») qui vont raccourcir le cycle apparent et absorber la variabilité.

Ces buffers sont positionnés sur l’ensemble de la chaîne de production, de l’entrée matière à la livraison client. On les symbolise par le sigle suivant :

Buffer ddmrp

L’objectif est de découpler les étapes de production (ou boucles découplées) pour fiabiliser le flux.

Le « cycle découplé », pour chaque boucle découplée, correspond à la plus longue chaîne non protégée de la gamme permettant de satisfaire les besoins du marché (une fois les buffers mis en place). Il est caractérisé par un Lead Time correspondant au temps de traversée le plus long dans la nomenclature entre 2 points de découplage : on l’appelle l’ASR Lead Time (pour actively synchronized replenishment LT) ou DRAS en français.

Exemple : voici les buffers à positionner dans la nomenclature de production suivante avec une contrainte de délai de livraison client de 10 jours

Ddmrp nomenclature 1

Voici les principaux critères pour sélectionner les points de commandes stratégiques où il est nécessaire de placer un buffer :

  • Le délai de livraison exigé par le client ou imposé par le marché,
  • La variabilité de la demande ou de la Supply Chain,
  • La flexibilité des stocks,
  • La structure de la Supply Chain (risque fournisseur par exemple),
  • La protection des « goulots » (voir gestion de production selon la méthode DBR).

 

2.2- Dimensionner les buffers

Les buffers sont calculés en fonction de la consommation moyenne journalière (CMJ ou ADU = average daily usage - la CMJ est généralement calculé sur la base d'un historique des consommations sur un horizon de 6 mois), du temps cycle découplé de la boucle en amont du buffer (ASR LT) et de la variabilité (sur les délais ainsi que sur la demande).

Ils sont constitués de 3 zones. Le buffer total correspond à la somme de ces 3 zones. Nous retrouvons en commençant par la base du buffer :

  • La zone ROUGE

Elle correspond au stock de sécurité et est dimensionnée comme suit :

Lead Time de la boucle (cycle découplé) x demande/consommation moyenne x facteur Lead Time

x (1 + facteur de variabilité volume)

Au sein de la zone rouge, on distingue une zone rouge de base qui correspond à la première partie de la formule (variabilité délai) sans multiplication par « (1 + facteur de variabilité volume) ». Cette seconde partie est appelée la zone rouge de sécurité : elle correspond à la sécurité à apporter pour cause de variabilité de la demande (risque externe).

 

On retrouve dans cette formule la loi de Little : la zone rouge de base correspond ainsi à une fraction (% = facteur de Lead Time) de la quantité d’en-cours nécessaire au sein de la boucle pour tenir le débit journalier.

Facteur Lead Time (ou facteur de délai de 0,2 à 0,7) : plus le cycle est court, plus le facteur de cycle Lead Time doit être grand : en effet, si le cycle découplé est très court, il faut beaucoup plus le protéger des petits aléas susceptibles d’avoir un impact relativement important sur le délai de commande.

>  Facteur de variabilité en volume (de 0,2 à 0,75) : la variabilité en volume est relative à l’environnement de chaque production. Afin de l’appréhender pour chaque article relativement aux autres articles, il suffit de classer (diagramme de Pareto) tous les articles en fonction de leur CoV (coefficient de variabilité), i.e. le ratio écart-type de consommation / CMJ. Plus le CoV est élevé, plus le facteur de variabilité doit être important.  

Attention : le Lead Time de la boucle correspond bien au temps de traversée de la boucle (et non pas au temps de cycle du poste amont … même si dans certains cas, cela peut correspondre à la même valeur !).

.

  • La zone JAUNE

Cette zone correspond à la quantité minimum prévue par la loi de Little pour tenir le temps de cycle en consommation « habituelle » augmentée de la marge pour variabilité et des aléas de délais (la zone rouge)

Elle est calculée comme suit :

Lead Time de la boucle (cycle découplé) x demande/consommation moyenne

  • la zone VERTE

Il s’agit de la zone de production « normale » puisque dans cette zone on est au dessus de la quantité fixée par la loi de Little augmentée de la marge pour variabilité et aléas de délais (zone rouge + jaune).

 

On fixe une limite supérieure à la zone verte afin de garder une maîtrise du niveau de stock (le juste nécessaire).

Elle correspond au maximum entre les 2 valeurs suivantes :

·       Lead Time de la boucle (cycle découplé) x Facteur Lead Time x demande/consommation moyenne

·       Quantité minimale d’un ordre (MoQ / taille de lot)

Nota : Si la fréquence de passation de commande auprès du fournisseur est imposée (ex : commande 1 fois par semaine) et que celle-ci conduit à un en-cours théorique (pour notre exemple : 7 jours x CMJ) supérieur à la quantité calculée précédemment, c’est celle-ci qui sera retenue pour la zone verte.  

 

On représente alors le buffer par un bar-chart intégrant les différentes zones définies au dessus.

Dans les calculs précédents, on veillera à convertir les Lead Time en jours (si les consommations moyennes sont bien des consommations journalières).

 

Exemple : Considérons l'artcile 220 dans la nomenclature présentée au §2.1avec les données suivantes :

  • CMJ = 100 pièces / jour
  • Taille de lot = 100
  • Facteur de LT = 40%
  • Facteur de variabilité de la demande = 50%

Compte tenu d'un ASR LT de 10 jours, le buffer DDMRP est alors défini comme suit (avec une zone rouge que l'on peut scinder en une zone rouge base de 400 pièces et une zone rouge de sécurité de 200 pièces) :

Exemple ddmrp 1

2.3- Ajuster dynamiquement les buffers

Il s’agit d’intégrer certains phénomènes temporels liés à l’activité de l’entreprise. On distingue plusieurs causes d’ajustements dynamiques :

·       la saisonnalité,

·       les promotions,

·       les contraintes de capacités, et,

·       les phases de lancement/obsolescence.

Pour ce faire, on affecte un coefficient d’ajustement à la consommation moyenne journalière.

Voici quelques exemples d’ajustements tirés d’une présentation de C. Ptak :

Ddmrp ajustement dynamique

 

2.4- Planifier les réapprovisionnements à partir de la demande réelle

Le principe est de relancer l’approvisionnement dès que le « stock disponible » sort de la zone verte vers la zone jaune ou rouge : on planifiera alors un ordre de fabrication (en amont de la boucle correspondant au cycle découplé) permettant ainsi de revenir dans la zone verte.

La comparaison du stock disponible à l’échelle des buffers rouge/jaune/vert est réalisée quotidiennement et à chaque point de commande.

Le stock disponible est obtenu grâce à l’équation du flux disponible suivante :

Stock disponible (ou flux net) =

Stock réel disponible au buffer + En-cours de la boucle – Demande client qualifiée

  • L’en-cours de la boucle correspond donc aux ordres de fabrications déjà lancés, et,
  • La demande qualifiée correspond aux commandes fermes du jour + les pics. Les « pics » en langage « DDMRP » correspondent aux commandes fermes à venir ayant une quantité supérieure à la moitié de la zone rouge à l’intérieur du cycle découplé (ASR Lead Time).

On compare le résultat de l’équation de flux à l’échelle des buffers :

- Dans la zone Verte : pas de lancement d’OF ;

- Dans la zone Jaune : lancement d’OF pour une quantité permettant d’atteindre le top du vert (TOG = top of green);

- Dans la zone Rouge : lancement prioritaire d’OF pour une quantité permettant d’atteindre le top du vert (TOG = top of green);

 

Exemple : considérons les données du jour suivantes pour l'article 220 de la nomenclature présentée au §2.1 

  • commande du jour = 80 pièces,
  • stock physique = 500 pièces,
  • en-cours physique = 400 pièces
  • carnet de commandes fermes à 15 jours 

Ddmrp pics

L'équation de flux indique le stock disponible : 400 + 500 - 80 - 320 (1 seul pic à prendre en compte) = 500 pièces. Ce niveau correspond à la zone rouge du buffer : il faut donc lancer en priorité un OF en amont de la boucle d'une quantité à produire de 1500 pièces.

Ddmrp exemple final

Une schématisation de « type VSM » conduirait à présenter le pilotage DDMRP de cette boucle de la manière suivante :

Ddmrp modelisation vsm

 

La différence avec le modèle MRP est que l’exécution des OF ne dépend plus d’une planification prévisionnelle de la demande, plus ou moins juste, mais du taux de remplissage d’un buffer en fonction de la demande réelle et de la quantité réelle circulant dans la boucle découplée (tenant compte des éventuels aléas que la production a subi).

Ainsi, la planification DDMRP va conduire à piloter un stock disponible entre la base de la zone verte et le top de la zone verte (lorsque la consommation est stable et sans pic) : le dimensionnement de la zone verte détermine donc la quantité moyenne de l’ordre de fabrication et sa fréquence de lancement (CMJ/zone verte - elle diminue lorsque la quantité moyenne augmente). On remarquera également que le rapport (buffer jaune / buffer vert) rend compte du nombre moyen d’OF ouverts dans l’en-cours.

Dans l’exemple étudié, cela conduit à maintenir un « en-cours + stock » de la boucle à 1600 pièces minimum (article 220) avec des OF moyens de 400 pièces, lancés tous les 4 jours soit 2,5 OF en moyenne dans l'en-cours. C'est ce que présente la simulation suivante du flux de la boucle étudiée avec une consommation constante de 100 pièces 220 par jour (sans pic):

 

Ddmrp simulation

 

L’analyse de la formule du buffer « vert » montre que pour les pièces à long ASR Lead Time, le coefficient de lead time est faible ce qui indique une fréquence de recomplètement courte. Le DDMRP tend à créer artificiellement pour ces pièces, un système de livraison continue de type « convoyeur ». 

 

2.5- Exécuter les ordres avec l'appui d’alertes paramétrées

L’exécution des ordres de fabrication est réalisée quotidiennement en fonction du résultat de l’équation de flux appliquée à chaque buffer. Afin d’avoir une vision synthétique et partagée du flux, on mettra en place un management visuel au travers 2 indicateurs :

- Les résultats de l’équation de flux disponible ;

- Le stock physique de l'article.

Ddmrp management visuel

L’expérience montre que pour le stock physique de chaque artricle, la cible (appelée « on hand target position ») devrait correspondre à la zone rouge + la moitié de la zone verte. La zone d’évolution du stock devrait osciller autour de cette position +/- 50% de la zone verte.

Ddmrp management visuel 2

 

Voir l'ensemble des billets du BLOG

 

La finalité du SMED

Le SMED (single minute exchange of die), que l’on peut traduire par « changement de série en moins de 10 minutes » (donc en un temps en minutes correspondant à un seul digit) est une méthode de réduction des temps de changement de fabrication développée par S. Shingo dès les origines du TPS (Toyota Production System).

Pour les entreprises qui n’ont pas connu de révolution Lean, les tailles de lot correspondent aux quantités économiques calculées grâce à la formule de Wilson (issue du Fordisme). Ces tailles de lots importantes  conduisent à une surproduction et aux nombreux gaspillages que cela entraîne :

·       des stocks importants

o   immobilisant de la trésorerie et augmentant le besoin en fond de roulement (ROI en baisse),

o   engendrant des coûts (surfaces de stockage, inventaires, transport et déplacements inutiles, …),

o   rendant plus difficile leur gestion (plus il y a de pièces moins on trouve celle dont on a réellement besoin),

o   augmentant mécaniquement le temps de traversée de l’usine  en application de la loi de Little (WIP = LT x débit),

·       des problèmes qualité détectés tardivement et donc résolus tardivement après leur genèse,

·       des produits susceptibles de n’être jamais vendus aux clients (puisque non commandés au moment de leur production),

·       une flexibilité réduite vis-à-vis du client (en allongeant le Lead Time et donc la capacité de l’entreprise à s’adapter aux évolutions de la demande client).

 

Conscient de ces travers, Toyota a ainsi développé la technique SMED pour réduire les tailles de lot avec la finalité de fluidifier le flux de production.

Pour ce faire, il fallait trouver le moyen de réduire drastiquement les temps de changement de série qui contribuent directement au dimensionnement des tailles de lot.

 

Quantité économique = √ (2 x D x Ccs / Cp x Tps)

D = Débit de pièces par unité de temps

Ccs = Coût d’un changement de série

Cp = Coût d’une pièce

Tps = Taux de possession des stocks par unité de temps

 

Ainsi, l’application de la formule de Wilson indique qu’une réduction d’un facteur 2 du coût d’un changement de série permet de réduire d’un facteur √2 la taille de lot.

 

En visant un temps de changement de série idéal strictement inférieur à 10 minutes, S. Shingo avait l’objectif que pour une opération de production de 1h30 (90 minutes), le changement de fabrication représenterait ainsi 9 minutes ou moins (également appelée « règle du un pour dix » : les temps alloués au changement de série ne doivent pas dépasser 10% du temps de disponibilité des machines).

 

La mise en œuvre du SMED permet également de lisser la charge, en volume et mix produits, ce qui rend la production plus flexible aux évolutions de la demande client avec des niveaux de stocks intermédiaires de chaque référence plus faibles.

Par exemple, imaginons une usine ouverte 8h par jour et fabricant sur une seule machine 2 produits A et B avec un temps de cycle de 12s, une demande client de 500 unités de chaque produit et un temps de changement de série de 2h20.

L’organisation de la journée de travail est alors la suivante :

Smed1

Si le temps de changement de série était divisé par deux, la production pourrait être lissé de telle manière que dès la mi-journée la moitié de la production journalière des 2 produits pourrait être mise à disposition du client avec l’organisation suivante :

Smed2

 

Ainsi la finalité du SMED n’est pas de récupérer du temps improductif pour produire plus mais bien de fluidifier le flux de production en réduisant les tailles de lot et en nivelant la production en volume et mix produits. Il est, cependant, vrai que lorsque le SMED s’adresse à un goulot de production (voir théorie des contraintes), il pourra également être mis à profit pour gagner en capacité.

Voir l'ensemble des billets du Blog

Vocabulaire anglais spécifique au 6 sigma

English Français
7 points in row 7 points d'affilée (tendance sur un carte de contrôle)
a boxplot (box-and-whisker diagram) une boîte à moustache
a control chart une carte de contrôle
a controllable factor (DOE) un facteur contrôlé
a data collection planning un plan de collecte des données
a design of experiments un plan d'expériences
a dot plot un diagramme des fréquences
a fishbone diagram un diagramme en arête de poisson
a formula une formule
a gate review (DMAIC) la revue de fin d'étape
a lurking variable une variable cachée
a main effect plot / interaction plot un diagramme des effets / des intercations
a pairwise comparison (ex : Tukey) une comparaison (des moyennes) deux à deux
a Pareto chart un diagramme de PARETO
a ranked order set of data des données ordonnées
a run (DOE) un essai
a run / trial (DOE) un essai 
a sample un echantillon
a scatter plot >> positive/négative/no correlation un graphe des effets ( (Y = f(X1) - autres Xi fixés)
a survey une enquête
a two-way / three-way interaction (DOE) une interaction du 2ème/3ème ordre
an hypothesis testing un test d'hypothèse
an outlier un point aberrant
ANOVA assumptions : normal distribution - equal of variances les pré-requis de l'ANOVA
cause-focused tools : 5 Whys - Fishbone diagram outils d'analyse des causes : 5P - Ishikawa
Chi square Khi2
common cause /special or assignable cause causes communes /spéciales
defective défaillant - douteux
descriptive statistics statistiques descriptives
df (degree of freedom) ddl (degrés de liberté)
fractional-factorial DOE plan fractionnaire
full DOE plan complet
gage R&R test R&R
in statistical control / out of control sous contrôle statistique / hors contrôle 
independent data données indépendantes
inferential statistics statistiques inférentielles
input variable / independent variable (X) facteur  X
linearity / accuracy / stability / discrimination  linéarité / précision / stabilité / discrimination
MSA (measurement system analysis) analyse du système de mesure
noise factor (DOE) facteurs bruits
normally distributed distribuées suivant une Gaussienne
on one side of the average d'un côté de la moyenne
one-way / two-way ANOVA ANAVAR à un facteur / deux facteurs
output/response variable / dependent variable (Y) caractéristique Y
paired / independent samples échantillons apprairées / indépendantes
Pearson coefficient r (correlation) / r² is the percentage of variation in Y that is attributed to X Coefficient de Pearson r / r²
random aléatoire
regression : simple linear / multiple régression : linéaire simple / multiple
reject / accept the null hypothesis accepter / rejeter l'hypothèse nulle
repeatability & reproductibility répétabilité & reproductibilité
short-term/lon-term capability capabilité court/long-terme
skewed data données assymétriques
steadily increasing / decreasing  en hausse / baisse constante
the 95% confidence interval l'intervalle de confiance à 95%
the central limit theorem le théorème central limite
the central tendancy / spread la position / la dispersion
the confidence level = 1 - α e niveau de confiance = 95%
the control limits les limites de contrôle
the control limits (upper UCL / lower LCL) les limites de contrôle (sup / inf)
the data display la représentation es données
the histogram (frequency plot) l'histogramme
the kurtosis le coefficient d'applatissement
the levels of a factor les modalités d'un facteur (ANOVA) ou niveaux (DOE)
the mean / the average la moyenne
the median la médiane
the null/alternative hypothesis l'hypothèse nulle (H0) / alternative (H1)
the range l'étendue
the S/N - signal to noise ratio le rapport signal sur bruit
the sample size la taille de l'échantillon
the sampling l'échantillonnage
the spread la dispersion
the standard deviation l'écart-type
the sum of squares (SS) la somme des carrés
the type of data (attribute or discrete/ continuous data) le type de donnée (données discrètes / continues)
the variance (advantage : additive) la variance
the variation  la variabilité
the who/what/where/when/how and why
(five W et one H)- Is/Is'nt
The last W is asked 5 times (the 5 why)
QQOQCP / Est-N'est pas

5P (pourquoi)
α risk : probability to conclude there is a difference when there really isn't risque alpha

Voir l'ensemble des billets du Blog

Les plans d'expériences

Les plans d'expérience (ou DOE - design of experiments en anglais) sont une méthode d’optimisation de la démarche expérimentale, vulgarisée dans le domaine industriel par le qualiticien japonais Génichi TAGUCHI, à partir des années 1960. Leur mise en œuvre est adaptée à l’optimisation du réglage des paramètres de multiples facteurs X contrôlés ayant une influence sur la qualité d’un produit (c’est le critère Y à minimiser, maximiser ou à cibler) tout en réduisant l’influence des facteurs non contrôlés (le bruit), difficiles ou trop coûteux à contrôler. Plutôt que d’éliminer ces facteurs bruits, il s’agit de trouver la combinaison des facteurs contrôlés rendant le produit « insensible » à ceux-ci.

Doe

Dans une démarche 6 sigma, les plans d’expérience sont généralement mis en œuvre dans la phase « Improve » de la méthode DMAIC, c'est-à-dire lorsque l’on vise à déterminer la meilleure relation liant les X aux Y afin d’atteindre la qualité désirée (en réduisant la variabilité associée au processus de production).

Les plans d’expériences interviennent plutôt dans la phase de conception ou d’industrialisation d’un produit alors que la maîtrise statistique des procédés est plus pertinente en phase de production afin de contrôler et piloter la stabilité du processus de production.

Les plans d’expérience permettent de quantifier l’influence des facteurs X et de leurs interactions ainsi que d’identifier la meilleure combinaison de ceux-ci afin d’améliorer ou d’atteindre un niveau de qualité, tout en minimisant le nombre d’expérimentations à réaliser par une suite d’essais rigoureusement organisés.

Cela revient à rechercher les coefficients αi du polynôme suivant modélisant Y en fonction des X :

Y = α0 + α1 facteur X1 + α2 facteur X2 + α3 Interaction (facteur X1, facteur X2) + ….

La représentation graphique de cette fonction s’appelle la surface de réponse que l’on souhaite optimiser.

Une analyse de la variance (ANOVA) permet alors de conclure quant à la significativité de l’effet des facteurs et des interactions (avec un risque de première espèce de 5% d’affirmer que le facteur n’a pas d’influence alors qu’il en a effectivement une).

Pour bâtir un plan d’expérience, on retient pour chaque facteur un nombre fini de niveaux ayant une influence sur la qualité du produit, faisant ainsi l'hypothèse d'une linéarité de la réponse entre les niveaux. L’ensemble des combinaisons de niveaux de tous les facteurs conduirait à réaliser un nombre très élevé d’expériences (en tenant compte de la combinaison des facteurs), à répéter plusieurs fois pour accumuler des résultats statistiques, afin de tester leur influence sur le produit.

La force de la méthode TAGUCHI est :

-          de limiter très fortement le nombre d’essais à réaliser en employant un plan factoriel pour lequel chaque niveau de chaque facteur est confronté à tous les niveaux des autres facteurs et dans des proportions égales (le plan est dit orthogonal),

-          d’évaluer l’influence des facteurs non contrôlés (le bruit) sur l’effet des facteurs contrôlés.

Exemple : Avec 7 facteurs à 2 niveaux, il y a à 27 soit 128 combinaisons de facteurs alors que la matrice de Tagushi L8 (27) identifie 8 essais à réaliser !

Le plan d’expérience correspond donc aux essais à réaliser par combinaison de niveaux de facteurs : le plan est dit « complet » lorsqu’il intègre toutes les combinaisons de facteurs (dont les interactions entre facteurs) et « fractionnaire » lorsqu’il est restreint aux seuls facteurs sans tenir compte des interactions.  

Chaque essai est répété plusieurs fois afin d’identifier la dispersion (bruit) autour du résultat de l’essai par rapport au critère mesuré, conséquence de l’influence des facteurs non contrôlés. On détermine alors pour chaque essai i, la moyenne Yi des effets et le rapport signal/bruit en dB (en fonction de la moyenne arithmétique des mesures et de leur dispersion) selon les formules développées par TAGUCHI.

Cas d’un critère à minimiser

S/Ni = - 10 * Log ([Σ yi2]/k) = -10 Log (σ²+Y²)

avec Y et σ, moyenne et écart-type des k répétitions de l’essai i

Cas d’un critère à maximiser

S/Ni = - 10 * Log ([Σ 1/yi2]/k) = -10 * Log ((1 + 3 σ²/Y2)/Y2)

avec Y et σ, moyenne et écart-type des k répétitions de l’essai i

 

Cas d’un critère à la valeur nominale (écart-type proportionnel à la position)

S/Ni =  10 log (Y2/σ²)

avec Y et σ, moyenne et écart-type des k répétitions de l’essai i

 

Cas d’un critère à la valeur nominale (écart-type indépendant de la position)

S/Ni =  -10 log (σ² +  (Y – Cible)2)

avec Y et σ, moyenne et écart-type des k répétitions de l’essai i

 

En faisant l’hypothèse que les effets moyens s’additionnent, on détermine ensuite la meilleure combinaison des facteurs comme étant celle pour laquelle leur effet va dans le sens de l’optimisation recherchée tout en maximisant le ratio signal/bruit.

Une fois les paramètres déterminés, on réalise un essai de validation des résultats obtenus. Afin de tester l'hypothèse de linéarité du modèle, on réalise cet essai de validation au centre du domaine d'étude (pour chaque facteur, on choisit le point médian entre les valeurs min et max). Si cet esssai est concluant (Y doit prendre la valeur moyenne de tous les essais, appelée T ci-dessous), on a alors trouvé la combinaison de facteur X répondant à l'objectif de qualité Y. Il ne reste plus qu'à l l'industrialiser.

Nombre minimal d'essais à réaliser

Le nombre minimal d'essais à réaliser pour étudier un système donné (plusieurs facteurs et interactions à des niveaux différents pour chaque facteur) est égal au nombre de degrés de libertés du système. Par exemple, pour l'étude du système suivant :

Y =  α0 + α1 A (2 niveaux) + α2 B (3 niveaux) + α3 C (3 niveaux) + α4 AC

ddl =1 + 1                         + 2                        + 2                          + 1 x 2 = 8

Il faudra effectuer au minimum 8 essais pour déterminer les coefficients αi.

La condition d'orthogonalité peut, cependant, conduire à un nombre d'essais supérieur au nombre de degrés de liberté. Cette condition d'orthogonalité indique en effet que le plan devra comporter un nombre d'essais multiple du PPCM du produit du nombre de niveaux de toutes les actions disjointes. 

Orthogonalite

Dans cet exemple, le nombre minimal d'essais à réaliser pour respecter la condition d'orthogonalité est 2x3x3 soit 18 essais.

On comprend donc que pour minimiser le nombre d'essais il faut éviter de prendre des nombres de niveaux premiers entre eux et n'étudier des interactions disjointes que lorsque cela est indispensable.

Les tables de TAGUCHI

Elles se présentent sous forme de matrices Ln(Nk) présentant la configuration des essais à réaliser : en ligne les n essais à réaliser, en colonne les k facteurs ou combinaisons de facteurs avec en intersection les niveaux 1 à N à prendre en compte.

Pour un plan complet à f facteurs à 2 niveaux, la table à utiliser est la table Ln(2k) telle que n = 2. Cette même table peut être utilisée comme plan fractionnaire pour étudier k facteurs sans interaction : chaque colonne est alors affectée à 1 facteur, étant entendu que certains facteurs sont confondus avec certaines interactions entre facteurs, considérées alors comme négligeables.

Les tables de TAGUCHI sont des plans fractionnaires astucieux qui prennent pour hypothèse que les interactions d'ordre 3 (1 facteur x 1 intéraction d'ordre entre 2 facteurs ou 1 intéraction à 3 facteurs) sont négligeables et que seules quelques interactions d'ordre 2 sont non nulles. 

Elles sont accompagnées :

  • d'un triangle des interactions, indiquant les numéros de colonne correspondant aux interactions entre 2 facteurs, et,
  • d'un ou plusieurs graphes des effets, permettant de visualiser les différentes possibilités de mise en oeuvre de la matrice en fonction des interactions à étudier. Ces graphes indiquent également quelles colonnes doivent être affectées aux facteurs les plus difficiles à modifier au cours des expérimentations. 

 Les 18 tables orthogonales de TAGUCHI, classées en fonction de la possibilité ou non d’étudier des interactions, sont répertoriées ici :

Tables de taguchi 1

Détaillons, par exemple, la table L4(23).

N° essai / N° de colonne 1 2 3
1 1 1 1
2 1 2 2
3 2 1 2
4 2 2 1

(en intersection de chaque ligne/colonne, on note le niveau 1 ou 2 à adopter pour chaque facteur dans le cadre de l'essai considéré)

-accompagnée du triangle des interactions :

  2 3
(1) 3 2
  (2) 1

 

-et du graphe des effets :  

Matricel4

Cette table est utilisée :

-          Soit pour un plan complet à 2 facteurs A et B (facteur A en colonne 1, facteur B en colonne 2 et intéraction A/B en colonne 3)

-          Soit pour un plan fractionnaire à 3 facteurs A,B,C sans tenir compte d’interactions ou plus exactement avec l’éventuelle interaction AB cumulée avec l’effet du facteur C (en colonne 3). On dit que les deux actions sont des alias. La résolution du plan fractionnaire est d’ordre III (1 facteur au moins confondu avec une interaction d’ordre II)

Si cette interaction ne peut pas être négligée, il faudra étudier séparément cette interaction et le facteur C ; pour ce faire, il faudra utiliser un plan complet à 3 facteurs L8 : on dit que l’on « désaliasse » le plan fractionnaire. L’utilisation d’un plan fractionnaire peut conduire à de lourdes erreurs si on néglige des interactions significatives.

On cherche à optimiser la surface de réponse du polynôme suivant :

Y = α0 + α1 A + α2 B + α3 A x B (2 facteurs + 1 interaction)

Ou

Y = α0 + α1 A + α2 B + α3 C (3 facteurs – interactions nulles)

 

Afin de pouvoir comparer les αi, , on utilise une unité standard, appelée notation de Yates, pour tous les facteurs de -1 (niveau mini) à +1 (niveau maxi).

Les résultats des 4 essais, prescrits par la table et répétés n fois, sont consignés dans le tableau suivant :

(exemple: 2 facteurs A et B + 1 interaction A/B - critère Y à minimiser) : 

  Moyenne  

S/N = - 10 * Log (1/n * Σ Yk2)

Essai 1 Y11   S/N(Y11)
Essai 2 Y12   S/N(Y12)
Essai 3 Y21   S/N(Y21)
Essai 4 Y22   S/N(Y22)

 

On note :

-          Xi la moyenne des résultats lorsque le facteur X est de niveau i, et,

-           T la moyenne des résultats de tous les essais de la matrice de Tagushi (moyenne du plan) = (Y11 + Y12 +Y21+Y22) / 4

On montre que :

-          Effet (Xi) = Xi – T → par exemple : Effet (A1) = (Y11+Y12)/2 - T.

On note que ∑ Effet (Xi) = 0. On dit que le facteur Xi a (N-1) degrés de libertés, c'est à dire qu'il suffit de calculer (N-1) effets pour connaître tous les effets du facteur X.

-          Effet (Interaction XiYj) = XiYj– Effet (Xi) – Effet (Yj) – T par exemple : Effet (A1;B2) = Y12  - Effet(A1) - Effet(A2) - T

On note que ∑ Effet (XiYj) à i fixé = 0. L'intéraction XiYj comporte (N-1) x (N'-1) degrés de libertés.

alors :  α0 = T ; αi = Effet (X2 ou Interaction X2Y2)

 

Les effets doivent être calculés sur les valeurs brutes Y et sur les valeurs signal/bruit S/N(Y) car les facteurs peuvent avoir une influence ou non sur les unes et/ou les autres. Le calcul des αi  permet d'établir les graphes des facteurs et les graphes des interactions, représentant la dépendance supposée linéaire de chaque effet/facteur sur la plage normalisée [-1;1]. 

Graphe des facteurs

Graphe des interactions

La significativité des effets peut être établie grâce à une analyse de la variance ou ANOVA (effet significatif si F > Flimite):

 

A

B

AxB

Résidus

TOTAL

SS

nx4xEffet(A1)²

nx4xEffet(B1)²

nx4xEffet(A1xB1)²

Total-SSA-SSB-SSAxB

(nx4)(Yk-T)²

ddl

1

1

1

nx4-1-3

nx4-1

V

SSA/ddl

SSB/ddl

SSAxB/ddl

Rv=SSR/ddl

SST/ddl

F

VA/Rv

VB/Rv

VAxB/Rv

 

 

Contribution

SSA/SST

SSB/SST

SSC/SST

 

 

Flimite à 5%

Table Fisher-Snedecor (1 ; nx4-1-3)

 

 

 

On détermine alors la meilleure combinaison des facteurs A (-1 ou +1) et B (-1 ou +1) comme étant celle pour laquelle leur effet va dans le sens de minimiser l'équation Y = α0 + α1 A + α2 B + α3

Le concept de capabilités en 6-sigma

La capabilité sert à quantifier l’aptitude d’un processus (compte tenu de ses limites naturelles) à produire à l’intérieur d’un intervalle de tolérance. L’étude des capabilités consiste à analyser l’adéquation des performances du moyen de production et son évolution dans le temps, par rapport à l’objectif de performance visé (valeur cible et intervalle de tolérance).

On distingue:

·       La capabilité court-terme du processus, Cp, qui compare la dispersion naturelle du processus (sans action de causes spéciales) et l’intervalle de tolérance (IT): Cp = IT / 6σCT. C’est donc la capabilité du moyen de production si l’on arrive à stabiliser le moyen, c'est-à-dire à éliminer les causes spéciales occasionnant un étalement de sa dispersion.

·       La performance long-terme du processus, Pp, qui prend en compte sur l’ensemble de population l’action des causes spéciales (occasionnant une dérive de la position moyenne du processus): Pp = IT / 6σLT. Elle traduit la qualité des produits livrés au client.

Cp et Pp vérifient: Pp ≤ Cp

On définit également un indicateur de déréglage long-terme, Ppk, ratio de la distance entre la moyenne sur toute la population (μ) et la limite de tolérance la plus proche (TS ou TI), divisée par 3 σLT: Pp = (μ-T)/3σLT.

Un processus est dit capable sur le long terme, c'est-à-dire susceptible de ne pas produire de pièces défectueuses, si Ppk > 1,33 (i.e., moins de 64 pièces défectueuses par million pour un processus centré tel que Ppk=Pp=1,33).

Capable mais decentre

Ainsi, un processus part d’un potentiel de capabilité égal à Cp. La chute de capabilité de Cp à Pp traduit l’instabilité du processus (c'est-à-dire l’étalement de sa dispersion avec le temps parce que la machine ne tient pas la consigne sur la valeur cible et que ces écarts ne sont pas corrigés) alors que la chute de capabilité de Pp à Ppk est due au déréglage du processus sur le long terme (écart de la moyenne par rapport à la cible).

L’étude de cette « chute des capabilités » est un outil puissant de l’approche 6-sigma pour améliorer très sensiblement le taux de qualité d’un processus de production.

Evolution capa

Voir l'ensemble des billets du BLOG