DOE

Les plans d'expériences

Les plans d'expérience (ou DOE - design of experiments en anglais) sont une méthode d’optimisation de la démarche expérimentale, vulgarisée dans le domaine industriel par le qualiticien japonais Génichi TAGUCHI, à partir des années 1960. Leur mise en œuvre est adaptée à l’optimisation du réglage des paramètres de multiples facteurs X contrôlés ayant une influence sur la qualité d’un produit (c’est le critère Y à minimiser, maximiser ou à cibler) tout en réduisant l’influence des facteurs non contrôlés (le bruit), difficiles ou trop coûteux à contrôler. Plutôt que d’éliminer ces facteurs bruits, il s’agit de trouver la combinaison des facteurs contrôlés rendant le produit « insensible » à ceux-ci.

Doe

Dans une démarche 6 sigma, les plans d’expérience sont généralement mis en œuvre dans la phase « Improve » de la méthode DMAIC, c'est-à-dire lorsque l’on vise à déterminer la meilleure relation liant les X aux Y afin d’atteindre la qualité désirée (en réduisant la variabilité associée au processus de production).

Les plans d’expériences interviennent plutôt dans la phase de conception ou d’industrialisation d’un produit alors que la maîtrise statistique des procédés est plus pertinente en phase de production afin de contrôler et piloter la stabilité du processus de production.

Les plans d’expérience permettent de quantifier l’influence des facteurs X et de leurs interactions ainsi que d’identifier la meilleure combinaison de ceux-ci afin d’améliorer ou d’atteindre un niveau de qualité, tout en minimisant le nombre d’expérimentations à réaliser par une suite d’essais rigoureusement organisés.

Cela revient à rechercher les coefficients αi du polynôme suivant modélisant Y en fonction des X :

Y = α0 + α1 facteur X1 + α2 facteur X2 + α3 Interaction (facteur X1, facteur X2) + ….

La représentation graphique de cette fonction s’appelle la surface de réponse que l’on souhaite optimiser.

Une analyse de la variance (ANOVA) permet alors de conclure quant à la significativité de l’effet des facteurs et des interactions (avec un risque de première espèce de 5% d’affirmer que le facteur n’a pas d’influence alors qu’il en a effectivement une).

Pour bâtir un plan d’expérience, on retient pour chaque facteur un nombre fini de niveaux ayant une influence sur la qualité du produit, faisant ainsi l'hypothèse d'une linéarité de la réponse entre les niveaux. L’ensemble des combinaisons de niveaux de tous les facteurs conduirait à réaliser un nombre très élevé d’expériences (en tenant compte de la combinaison des facteurs), à répéter plusieurs fois pour accumuler des résultats statistiques, afin de tester leur influence sur le produit.

La force de la méthode TAGUCHI est :

-          de limiter très fortement le nombre d’essais à réaliser en employant un plan factoriel pour lequel chaque niveau de chaque facteur est confronté à tous les niveaux des autres facteurs et dans des proportions égales (le plan est dit orthogonal),

-          d’évaluer l’influence des facteurs non contrôlés (le bruit) sur l’effet des facteurs contrôlés.

Exemple : Avec 7 facteurs à 2 niveaux, il y a à 27 soit 128 combinaisons de facteurs alors que la matrice de Tagushi L8 (27) identifie 8 essais à réaliser !

Le plan d’expérience correspond donc aux essais à réaliser par combinaison de niveaux de facteurs : le plan est dit « complet » lorsqu’il intègre toutes les combinaisons de facteurs (dont les interactions entre facteurs) et « fractionnaire » lorsqu’il est restreint aux seuls facteurs sans tenir compte des interactions.  

Chaque essai est répété plusieurs fois afin d’identifier la dispersion (bruit) autour du résultat de l’essai par rapport au critère mesuré, conséquence de l’influence des facteurs non contrôlés. On détermine alors pour chaque essai i, la moyenne Yi des effets et le rapport signal/bruit en dB (en fonction de la moyenne arithmétique des mesures et de leur dispersion) selon les formules développées par TAGUCHI.

Cas d’un critère à minimiser

S/Ni = - 10 * Log ([Σ yi2]/k) = -10 Log (σ²+Y²)

avec Y et σ, moyenne et écart-type des k répétitions de l’essai i

Cas d’un critère à maximiser

S/Ni = - 10 * Log ([Σ 1/yi2]/k) = -10 * Log ((1 + 3 σ²/Y2)/Y2)

avec Y et σ, moyenne et écart-type des k répétitions de l’essai i

 

Cas d’un critère à la valeur nominale (écart-type proportionnel à la position)

S/Ni =  10 log (Y2/σ²)

avec Y et σ, moyenne et écart-type des k répétitions de l’essai i

 

Cas d’un critère à la valeur nominale (écart-type indépendant de la position)

S/Ni =  -10 log (σ² +  (Y – Cible)2)

avec Y et σ, moyenne et écart-type des k répétitions de l’essai i

 

En faisant l’hypothèse que les effets moyens s’additionnent, on détermine ensuite la meilleure combinaison des facteurs comme étant celle pour laquelle leur effet va dans le sens de l’optimisation recherchée tout en maximisant le ratio signal/bruit.

Une fois les paramètres déterminés, on réalise un essai de validation des résultats obtenus. Afin de tester l'hypothèse de linéarité du modèle, on réalise cet essai de validation au centre du domaine d'étude (pour chaque facteur, on choisit le point médian entre les valeurs min et max). Si cet esssai est concluant (Y doit prendre la valeur moyenne de tous les essais, appelée T ci-dessous), on a alors trouvé la combinaison de facteur X répondant à l'objectif de qualité Y. Il ne reste plus qu'à l l'industrialiser.

Nombre minimal d'essais à réaliser

Le nombre minimal d'essais à réaliser pour étudier un système donné (plusieurs facteurs et interactions à des niveaux différents pour chaque facteur) est égal au nombre de degrés de libertés du système. Par exemple, pour l'étude du système suivant :

Y =  α0 + α1 A (2 niveaux) + α2 B (3 niveaux) + α3 C (3 niveaux) + α4 AC

ddl =1 + 1                         + 2                        + 2                          + 1 x 2 = 8

Il faudra effectuer au minimum 8 essais pour déterminer les coefficients αi.

La condition d'orthogonalité peut, cependant, conduire à un nombre d'essais supérieur au nombre de degrés de liberté. Cette condition d'orthogonalité indique en effet que le plan devra comporter un nombre d'essais multiple du PPCM du produit du nombre de niveaux de toutes les actions disjointes. 

Orthogonalite

Dans cet exemple, le nombre minimal d'essais à réaliser pour respecter la condition d'orthogonalité est 2x3x3 soit 18 essais.

On comprend donc que pour minimiser le nombre d'essais il faut éviter de prendre des nombres de niveaux premiers entre eux et n'étudier des interactions disjointes que lorsque cela est indispensable.

Les tables de TAGUCHI

Elles se présentent sous forme de matrices Ln(Nk) présentant la configuration des essais à réaliser : en ligne les n essais à réaliser, en colonne les k facteurs ou combinaisons de facteurs avec en intersection les niveaux 1 à N à prendre en compte.

Pour un plan complet à f facteurs à 2 niveaux, la table à utiliser est la table Ln(2k) telle que n = 2. Cette même table peut être utilisée comme plan fractionnaire pour étudier k facteurs sans interaction : chaque colonne est alors affectée à 1 facteur, étant entendu que certains facteurs sont confondus avec certaines interactions entre facteurs, considérées alors comme négligeables.

Les tables de TAGUCHI sont des plans fractionnaires astucieux qui prennent pour hypothèse que les interactions d'ordre 3 (1 facteur x 1 intéraction d'ordre entre 2 facteurs ou 1 intéraction à 3 facteurs) sont négligeables et que seules quelques interactions d'ordre 2 sont non nulles. 

Elles sont accompagnées :

  • d'un triangle des interactions, indiquant les numéros de colonne correspondant aux interactions entre 2 facteurs, et,
  • d'un ou plusieurs graphes des effets, permettant de visualiser les différentes possibilités de mise en oeuvre de la matrice en fonction des interactions à étudier. Ces graphes indiquent également quelles colonnes doivent être affectées aux facteurs les plus difficiles à modifier au cours des expérimentations. 

 Les 18 tables orthogonales de TAGUCHI, classées en fonction de la possibilité ou non d’étudier des interactions, sont répertoriées ici :

Tables de taguchi

Détaillons, par exemple, la table L4(23).

N° essai / N° de colonne 1 2 3
1 1 1 1
2 1 2 2
3 2 1 2
4 2 2 1

(en intersection de chaque ligne/colonne, on note le niveau 1 ou 2 à adopter pour chaque facteur dans le cadre de l'essai considéré)

-accompagnée du triangle des interactions :

  2 3
(1) 3 2
  (2) 1

 

-et du graphe des effets :  

Matricel4

Cette table est utilisée :

-          Soit pour un plan complet à 2 facteurs A et B (facteur A en colonne 1, facteur B en colonne 2 et intéraction A/B en colonne 3)

-          Soit pour un plan fractionnaire à 3 facteurs A,B,C sans tenir compte d’interactions ou plus exactement avec l’éventuelle interaction AB cumulée avec l’effet du facteur C (en colonne 3). On dit que les deux actions sont des alias. La résolution du plan fractionnaire est d’ordre III (1 facteur au moins confondu avec une interaction d’ordre II)

Si cette interaction ne peut pas être négligée, il faudra étudier séparément cette interaction et le facteur C ; pour ce faire, il faudra utiliser un plan complet à 3 facteurs L8 : on dit que l’on « désaliasse » le plan fractionnaire. L’utilisation d’un plan fractionnaire peut conduire à de lourdes erreurs si on néglige des interactions significatives.

On cherche à optimiser la surface de réponse du polynôme suivant :

Y = α0 + α1 A + α2 B + α3 A x B (2 facteurs + 1 interaction)

Ou

Y = α0 + α1 A + α2 B + α3 C (3 facteurs – interactions nulles)

 

Afin de pouvoir comparer les αi, , on utilise une unité standard, appelée notation de Yates, pour tous les facteurs de -1 (niveau mini) à +1 (niveau maxi).

Les résultats des 4 essais, prescrits par la table et répétés n fois, sont consignés dans le tableau suivant :

(exemple: 2 facteurs A et B + 1 interaction A/B - critère Y à minimiser) : 

  Moyenne  

S/N = - 10 * Log (1/n * Σ Yk2)

Essai 1 Y11   S/N(Y11)
Essai 2 Y12   S/N(Y12)
Essai 3 Y21   S/N(Y21)
Essai 4 Y22   S/N(Y22)

 

On note :

-          Xi la moyenne des résultats lorsque le facteur X est de niveau i, et,

-           T la moyenne des résultats de tous les essais de la matrice de Tagushi (moyenne du plan) = (Y11 + Y12 +Y21+Y22) / 4

On montre que :

-          Effet (Xi) = Xi – T → par exemple : Effet (A1) = (Y11+Y12)/2 - T.

On note que ∑ Effet (Xi) = 0. On dit que le facteur Xi a (N-1) degrés de libertés, c'est à dire qu'il suffit de calculer (N-1) effets pour connaître tous les effets du facteur X.

-          Effet (Interaction XiYj) = XiYj– Effet (Xi) – Effet (Yj) – T par exemple : Effet (A1;B2) = Y12  - Effet(A1) - Effet(A2) - T

On note que ∑ Effet (XiYj) à i fixé = 0. L'intéraction XiYj comporte (N-1) x (N'-1) degrés de libertés.

alors :  α0 = T ; αi = Effet (X2 ou Interaction X2Y2)

 

Les effets doivent être calculés sur les valeurs brutes Y et sur les valeurs signal/bruit S/N(Y) car les facteurs peuvent avoir une influence ou non sur les unes et/ou les autres. Le calcul des αi  permet d'établir les graphes des effets, représentant la dépendance supposée linéaire de chaque effet sur la plage normalisée [-1;1]. 

Graphe effets 2

La significativité des effets peut être établie grâce à une analyse de la variance ou ANOVA (effet significatif si F > Flimite):

 

A

B

AxB

Résidus

TOTAL

SS

nx4xEffet(A1)²

nx4xEffet(B1)²

nx4xEffet(A1xB1)²

Total-SSA-SSB-SSAxB

(nx4)(Yk-T)²

ddl

1

1

1

nx4-1-3

nx4-1

V

SSA/ddl

SSB/ddl

SSAxB/ddl

Rv=SSR/ddl

SST/ddl

F

VA/Rv

VB/Rv

VAxB/Rv

 

 

Contribution

SSA/SST

SSB/SST

SSC/SST

 

 

Flimite à 5%

Table Fisher-Snedecor (1 ; nx4-1-3)

 

 

 

On détermine alors la meilleure combinaison des facteurs A (-1 ou +1) et B (-1 ou +1) comme étant celle pour laquelle leur effet va dans le sens de minimiser l'équation Y = α0 + α1 A + α2 B + α3 A x B tout en maximisant la valeur algébrique du ratio S/N.&

Le 6 sigma - définitions

La méthode 6-sigma, développée par Motorola puis généralisée par General Electric dans les années 1990, est une méthode d'amélioration continue des processus de fabrication visant à réduire les variabilités à l'origine des non-qualités. Elle a donc la même finalité que le pilier JIDOKA de l'approche Lean mais s'appuie plus particulièrement sur l'analyse des données:

·       recueillies auprès du client et

·       mesurées en production afin de déterminer les paramètres à l'origine des variabilités, que l'on souhaite piloter dans un mode "prédicitf".

L'approche 6-sigma englobe à la fois un objectif qualité et une démarche de résolution de problème, structurée en  « projet ». C’est une approche qui va au-delà des outils standards MRP du Lean (QQOQCP, 5P, SQDC, Brainstorming) qui visent à « faire parler les hommes ». Il s’agit ici de « faire parler les processus » afin de découvrir la fonction de transfert qui relie les paramètres de sortie du processus (Y) aux paramètres d’entrée influents (X).

Pour reprendre une formulation empruntée à Maurice Pillet, les valeurs fondamentales du 6-sigma sont :

·       La maîtrise de la variabilité (écart entre une situation attendue et une situation réelle),

·       La culture de la mesure,

·       La recherche des caractéristiques critiques pour le client (CTQ),

·       La notion de preuve statistique, et,

·       Le respect de la méthode DMAIC.

Les outils principaux de la méthode 6-sigma sont:

·       la méthodologie DMAIC,

·       la maîtrise statistique des procédés et les cartes de contrôle,

·       les plans d'expérience,

·       les différents tests que nous offrent les statistiques inférentielles.

La conjugaison des approches Lean et 6 sigma, appelée Lean 6-sigma (LSS), permet d'associer l'efficacité du juste-à-temps et la puissance de la maîtrise de la variabilité.

L'appellation « 6 sigma » fait référence à l'écart-type (σ) d'une distribution supposée gaussienne[1] de la variabilité de tout processus. La méthode 6-sigma vise donc à maîtriser le processus de production tel que seules les pièces au delà de +/-6σ autour de la moyenne (compte tenu d'un décentrage maximum de 1,5 σ) soient rebutées, ce qui revient à rejeter moins de 3,4 pièces par million de pièces produites. Si cet objectif est à la portée de certaines industries, une grande majorité vise 4 voire 3 sigma.

6 sigma intro

 


[1] Postulat de la maîtrise statistique des procédés (découlant du théorème central limite) : en l’absence de déréglage et compte tenu des différents facteurs indépendants et d’un ordre de grandeur équivalent, la répartition de la production d’une machine en fonction d’une caractéristique donnée suit une loi normale de moyenne μ et d’écart-type σ.

 

Voir l'ensemble des billets du Blog