Vous êtes sur la page 1sur 8

L’Informatique du

Futur :
Industrie 4.0 & SPC

Que devient le SPC dans


le concept Industrie 4.0

3 octobre 2021

HERA CONSULTING
Créé par : Ir Paul Renson
heraconsulting@consulty.be
Que vous l'appeliez Industrie 4.0, l'usine intelligente ou l'Internet industriel des objets (IIoT),
la technologie et le besoin d'une efficacité accrue et d'une réduction des déchets qui poussent
la fabrication vers une révolution dans la façon dont nous produisons.

Où le SPC s'intègre-t-il dans l'Industrie 4.0 ?


L'usine intelligente, ou Industrie 4.0, est l'application de technologies numériques connectées
modernes à l'ensemble de l'usine, de l'entreprise ou de la chaîne d'approvisionnement pour
optimiser ces opérations dans trois dimensions fondamentales :

1. Minimiser les coûts, tels que les coûts d'exploitation, l'efficacité, la productivité, les
déchets, etc.
2. Maximiser la valeur, telle que l'agilité, la flexibilité, la réactivité, la qualité des
produits et la satisfaction des clients, etc.
3. Atténuer les risques, tels que la volatilité de l'offre et de la demande, les risques de
production (par exemple, les pannes d'équipement) et, bien sûr, les risques liés à la
qualité des produits.

L'industrie 4.0 est un concept qui peut considérablement améliorer les performances des
organisations de fabrication dans ces trois dimensions. Cependant, ceci est un concept, pas
une solution.

Il n'existe aucune solution Industrie 4.0 prête à l'emploi qui puisse


être mise en œuvre.
Au lieu de cela, il s'agit de l'intégration et de l'application d'un large portefeuille de
technologies :

 des capteurs intelligents à faible coût,


 des réseaux de communication câblés et sans fil omniprésents,
 le stockage et le calcul de données volumineuses,
 l'informatique de pointe,
 l'analyse (prédictive, prescriptive et visuelle),
 et l'intelligence artificielle et l'apprentissage automatique parmi tant d'autres.

Chaque composant fournit une pièce essentielle du puzzle qu'est l'usine intelligente, ou
Industrie 4.0.

Un élément essentiel, à notre avis, est le SPC.


Alors que beaucoup de ceux qui connaissent le SPC l'associent souvent aux cartes de contrôle
traditionnelles, ce ne sont que les représentations visuelles courantes et réductrices du
SPC. Derrière celles-ci se trouvent une suite de techniques et d'algorithmes puissants et
éprouvés qui analysent, surveillent et prédisent les performances d'un processus particulier ou
d'une caractéristique de produit. Le SPC identifie efficacement les tendances anormales en
temps réel et fournit des alarmes et des notifications avant qu'une non-conformité (par
exemple, limite de spécification, contrôle de contenu net, etc.) ne se produise.
Lorsqu'il est utilisé dans plusieurs processus, installations et même des chaînes
d'approvisionnement entières, le SPC fournit aux fabricants une vue standardisée, en temps
réel et (surtout) fondée sur des preuves des performances de l'ensemble de leurs opérations.

Pourtant, le SPC ne peut pas fonctionner dans le vide. Il nécessite des données provenant
d'opérateurs, de machines, de capteurs Internet des objets (IoT) ou d'automates
programmables (PLC), par exemple, ainsi que la capacité de présenter des analyses et des
notifications aux bonnes personnes, au bon moment et au bon endroit afin de prendre des
décisions efficaces et immédiates à court, moyen ou long terme.

De plus en plus, les solutions SPC modernes tirent parti de la puissance des modèles de
déploiement basés sur le cloud, qui fournissent des plates-formes plus évolutives et flexibles,
permettant à SPC d'être déployé de manière rentable dans des entreprises et des chaînes
d'approvisionnement entières.

Le SPC est donc l'un des nombreux composants critiques requis dans le cadre d'une
stratégie d'usine intelligente, ou Industrie 4.0.

L'importance de la normalisation des interfaces


Un SPC repose fondamentalement sur des données, qu'elles soient saisies directement et
correctement par un opérateur dans l'application, importées à partir de fichiers ou directement
intégrées dans des sources de données, telles que des jauges ou des automates. Tant que les
données peuvent entrer de manière fiable dans la plate-forme, un SPC efficace peut être
atteint.

Cependant, alors que l'intégration avec des interfaces non standardisées n'empêchera pas le
déploiement de solutions SPC efficaces, le coût et la complexité de la création et de la
maintenance de ces interfaces, en particulier avec un grand nombre d'interfaces non
standardisées, peuvent souvent être beaucoup plus élevés. Ainsi, la standardisation des
interfaces est importante, non seulement pour réduire le coût et la complexité, mais aussi pour
faciliter le déploiement rapide de solutions SPC efficaces dans l'entreprise de fabrication.

L'industrie 4.0 n’exige pas nécessairement que les produits et les systèmes physiques
spécifiques soient particulièrement intelligents, mais c'est plutôt dans les systèmes qui
régissent les processus ou produits que la valeur de l'intelligence peut être véritablement
exploitée.

La grande majorité des composants fabriqués sont des objets physiques inertes, et les
systèmes physiques impliqués dans la fabrication de ces composants effectuent le plus
souvent une tâche très spécifique. Un boîtier électronique en plastique, un joint de moteur, un
pot de crème glacée ou le longeron d'aile d'un avion ne seront jamais « intelligents » et n'ont
pas besoin de l'être. L'entité finie dont ils deviennent une partie peut être intelligente, comme
les appareils grand public intelligents, les automobiles autonomes, les grues sans opérateur et
les avions sans pilote, mais c'est une partie différente de l'image. De même, une fraiseuse
n'aura pas besoin de plus d'intelligence que d'être capable d'effectuer sa tâche spécifique selon
les spécifications. Si un écart par rapport à la cible se produit, il aura besoin de l'intelligence
nécessaire pour réajuster le processus d'usinage afin de rester sur la cible. Ce niveau
d'intelligence peut être atteint par un contrôleur local, suffisamment intelligent pour effectuer
cette tâche avec succès, mais guère plus.

Mais plus largement, le terme « intelligence » est un concept souvent galvaudé et mal
appliqué dans l'Industrie 4.0. Tout comme l'intelligence humaine, nous comptons sur nos sens
(vue, ouïe, odorat, toucher et goût) pour recueillir des informations sur le monde qui nous
entoure.

Lorsque ces informations sont combinées avec l'expérience passée, nous formons des
connaissances sur le monde dans lequel nous vivons.

L'intelligence est la capacité d'appliquer ces connaissances pour obtenir le


résultat souhaité.
De même, dans un contexte d'Industrie 4.0, nous utilisons des capteurs et d'autres
technologies similaires (comme la RFID) pour « détecter » l'environnement
industriel. Lorsque ces informations sont collectées, intégrées, agrégées et analysées tout au
long de la chaîne d'approvisionnement, nous pouvons commencer à transformer ces
informations en connaissances sur les processus et les produits, puis appliquer l'intelligence
pour donner une réponse (automatiquement ou via une collaboration humaine, qu'il s'agisse
de demander à un équipement spécifique de répondre à un certain écart ou à une condition
donnée ailleurs dans la chaîne d'approvisionnement, ou de savoir où se trouve une matière
première dans la chaîne d'approvisionnement ou où un produit de consommation est situé
dans un entrepôt ou un magasin de détail…)

Ce système intelligent peut être une plate-forme centralisée, un certain nombre de systèmes
interconnectés tout au long de la chaîne d'approvisionnement ou à un emplacement spécifique
(par exemple via l'informatique de pointe).

L'application de ces systèmes intelligents interconnectés à travers la chaîne


d'approvisionnement en utilisant une myriade de mécanismes de rétroaction et de contrôle
constitue la réalité de l'Industrie 4.0 et de l'usine intelligente. Pour utiliser l'analogie humaine
une dernière fois, ils deviennent le « cerveau » de la chaîne d'approvisionnement de
fabrication, capable de contrôler et d'orchestrer la fabrication et la chaîne d'approvisionnement
beaucoup plus efficacement que les processus manuels humains seuls ne pourraient jamais le
faire.

Un téraoctet de données est actuellement créé quotidiennement dans une


usine moyenne, mais 99 % de ces données ne sont pas utilisées/analysées…
Mais quelle est la différence entre un To de données, dont 99 % sont inutilisés, et 1 Go de
données, dont 99 % sont utilisés ?
Ce n'est pas le volume de données collectées ou le pourcentage utilisé de celles-ci qui
détermine la valeur.
Par exemple, prenez un capteur de température et d'humidité ambiante, qui pourrait être
configuré pour capturer et enregistrer un flux de deux valeurs de données toutes les
millisecondes. Avec des métadonnées telles que l'ID du capteur, l'emplacement et un
horodatage, ce seul capteur pourrait créer jusqu'à des centaines de mégaoctets de données par
jour. Cependant 99% de ces données ne seraient pas utiles car la température et l'humidité
ambiantes dans une installation varieront sur des échelles de temps beaucoup plus lentes.
La création d'un résumé statistique de ces données toutes les cinq minutes, par exemple,
créerait beaucoup moins de données, mais fournirait des informations beaucoup plus
précieuses et pertinentes, surtout si la température et l'humidité de l'installation de production
ont un impact causal sur le processus de fabrication.
Si la température et l'humidité ambiantes n'avaient pas d'effet causal sur le processus de
production, alors peut-être qu'aucune des données recueillies n'est utile...

Ce n'est pas parce que nous « pouvons » collecter les données que nous «
devons » collecter les données.
Compte tenu du faible coût des capteurs et du fait que la plupart des équipements modernes
sont capables de collecter des données sur une myriade de paramètres, il est tentant de penser
que nous devons utiliser toutes ces données.

L'ère du « Big Data » nous amène à croire que les données sont reines et que plus nous en
collectons, mieux nous travaillons. Mais collecter des données mauvaises ou inutiles est bien
pire que de ne pas les collecter du tout.
Toutes les données ont un coût pour l'organisation, qui est souvent largement sous-estimé - il
y a le coût du capteur physique ou de l'équipement utilisé pour capturer les données à leur
source, le transport (ou la transmission) des données du capteur vers une solution de stockage,
la puissance de calcul pour effectuer des calculs sur les données, le coût du stockage à long
terme et des sauvegardes, la gestion et la maintenance de tous ces systèmes, etc.
Le coût individuel associé à un flux de données « mono capteur » peut sembler suffisamment
négligeable pour ne pas s'en préoccuper. Mais même avec les capteurs, la mise en réseau, le
stockage et le temps de calcul à faible coût disponibles aujourd'hui (en particulier dans le
cloud), ce coût peut devenir important lorsqu'il est multiplié par le potentiel pour une
installation d'avoir des milliers, voire des centaines de milliers, de capteurs et flux de données
associés.
Par conséquent, une organisation ne doit pas être obsédée par le volume de données qu'elle
peut ou collecte, ni par le taux d'utilisation.
Les organisations devraient considérer les données comme un actif opérationnel stratégique,
constituer un inventaire des actifs de données, évaluer leur valeur relative et leur applicabilité
aux objectifs de l'organisation, et déterminer si, comment et où ces données peuvent être
utilisées pour minimiser les coûts, maximiser la valeur et atténuer les risques.
Dans le cadre du processus de transformation de l'intelligence des données, le nettoyage et la
transformation des données peuvent signifier que certaines données capturées à l'origine sont
délibérément sous-utilisées, ce qui réduit ce taux hypothétique. C'est pourquoi viser une
utilisation à 100 % des données collectées est une folie.
Il en va des stocks de données comme les stocks de produits, matières premières ou produits
finis. S’ils ne sont pas utilisés, ils coûtent et ne rapportent RIEN…
Fini le temps où l'utilisation d'applications uniques et monolithiques pour exécuter des
opérations commerciales entières était un objectif souhaitable (voire réalisable). Au lieu de
cela, les entreprises de fabrication reconnaissent de plus en plus que le déploiement d'un
portefeuille intégré d'applications et de solutions de pointe est la seule approche réalisable
pour obtenir des résultats commerciaux efficaces.
Cependant, l'inconvénient est que cela peut conduire à une prolifération d'applications avec de
nombreuses fonctionnalités qui se chevauchent ou dupliquées et à la création de données en
double et de silos de données non standardisés qui entravent les objectifs de l'organisation.
Et de nombreux fabricants ne savent même pas quelles applications sont utilisées et où, en
particulier lorsque les départements, sites, régions ou divisions ont l'autonomie pour déployer
des applications à volonté sans s'aligner sur un objectif de l'entreprise. Les risques à long
terme de cela peuvent être graves.
Une telle prolifération d'applications peut également constituer un obstacle important à une
stratégie de transformation numérique. Dans de tels cas, il faut impérativement d'abord se
lancer dans un processus de découverte, d'audit et de rationalisation avant même que de tels
projets ne puissent commencer.
Tout comme le traitement des données évoqué ci-dessus, le portefeuille d'applications d'une
organisation doit être soigneusement considéré comme un atout opérationnel. Il ne faut pas
non plus « mettre la charrue avant les bœufs » et dériver une stratégie opérationnelle du
portefeuille applicatif existant.
Au lieu de cela, il faut construire une architecture d'applications et de données qui fournit les
capacités nécessaires à soutenir les objectifs opérationnels stratégiques, qu'il s'agisse de
transformation numérique, d'Industrie 4.0, d'usines intelligentes ou de tout autre objectif.
Une fois ces capacités identifiées, il est seulement temps d’approcher le marché pour
identifier les solutions et les applications dont les fonctionnalités correspondent le mieux aux
besoins et capacités requises.
Le nombre d'applications déployées est relativement subjectif, le nombre d'applications
discrètes étant fonction de ce processus. Il peut être 10, 50, ou 100, mais le nombre importe
moins que la fourniture des capacités requises. Ce n'est pas parce qu'une solution ERP en
place peut avoir un module qualité, ou qu'une solution MES peut avoir un module SPC que
les objectifs de qualité ou de contrôle des processus doivent être adaptés aux capacités de ces
modules simplement pour conserver un minimum d'applications. S'il existe des solutions de
gestion de la qualité ou de SPC plus performantes et mieux adaptées aux capacités requises,
elles doivent alors être sérieusement envisagées dans le cadre de l'architecture de l'application

Les défis ou risques pour un atelier connecté ou une


surveillance à distance
Les risques de sécurité se situent en haut de la liste des défis, mais il y en a aussi beaucoup
d'autres. Certains des défis les plus importants sont liés aux volumes de données générés par
ces environnements de plus en plus connectés. Comme indiqué précédemment, les données
peuvent proliférer de façon exponentielle et (s'il n'est pas abordé de manière stratégique), ce
déluge de données peut entraîner une surcharge, ce qui peut augmenter considérablement le
coût et la complexité des opérations.
Lorsque les données et les analyses sont utilisées par des opérateurs humains, trop de données
et des données de qualité ou de fiabilité douteuses peuvent conduire à des idées
contradictoires ou à ce que j'appelle une « paralysie décisionnelle ».
Il peut également y avoir d'importants défis de main-d'œuvre à surmonter. Les fabricants qui
passent d'un environnement d'exploitation traditionnel à un environnement numérique plus
connecté seront confrontés à une formation conséquente et à une requalification importante de
leur main-d'œuvre, ainsi qu'à un besoin d'attirer et d'intégrer de nouveaux talents plus
pertinents qui s'adaptent et soutiennent facilement un environnement numérique. Alors que de
plus en plus de fabricants commencent à s'équiper pour cet avenir numérique, la course à
l’engagement de ces talents deviendra encore plus intense et essentielle au succès de ces
transformations.

La qualité des données est un défi majeur


C'est un problème qui est trop souvent négligé ou attribué une faible priorité. Le problème va
au-delà de la qualité des données (qui concerne l'exactitude, l'actualité et la précision des
données), mais aussi l'intégrité des données (qui concerne la manière dont les données
conservent leur conformité aux règles et contraintes). C'est un sujet qui se pose aux
entreprises depuis de nombreuses années (demandez à n'importe quel DSI) et avec lequel les
organisations luttent encore aujourd'hui. L'impact de la qualité des données ne peut être
négligé car l'impact sur la prise de décision, la planification et la formulation de la stratégie
pourrait clairement éclipser tout impact opérationnel direct.
Trop de fabricants sont pris dans un cycle de gestion de l'impact en aval de la qualité des
données avec des ressources disproportionnées par rapport à la mise en œuvre d'une stratégie
proactive et continue de qualité des données.
En bref, la question de la qualité des données doit commencer avant que les données
physiques n'existent réellement : mieux vaut prévenir que guérir. Ces défis sont intensifiés
dans l'environnement temps réel d'une usine intelligente. L'ère du traitement des données par
lots est révolue. Aujourd'hui, les données sont acquises ou créées, et consommées, presque
instantanément, 24h/24 et 7j/7, sans possibilité de révision, de nettoyage et de préparation
avant utilisation.
À cet égard, l’outil SPC n'est pas différent des autres opérations ou technologies qui reposent
sur la qualité et l'intégrité des données en entrée. La qualité des renseignements obtenus par le
SPC sera plus précise et plus fiable si la qualité et l'intégrité des données entrantes sont
améliorées.
Le SPC fournit des preuves des performances et des tendances des processus en temps réel sur
la base de données opérationnelles et de qualité. Un SPC fournit à l’opérateur des
informations précieuses sur la façon dont un processus fonctionne et l'alerte des tendances
anormales et de la variabilité qui nécessitent une intervention ou une action préventive, ou des
opportunités de réduire les déchets (à travers l'homme, le matériel et la machine). Un SPC
fournit au superviseur ou à tout responsable qualité de meilleures informations sur les
performances des pièces, processus et fonctionnalités, et leur permet de surveiller ces
performances avec un champ de vision plus large et sur des échelles de temps plus
longues. Pour un professionnel de l'amélioration continue, l’outil SPC fournit des
informations qui lui permettent d'identifier où se trouvent les goulots d'étranglement des
performances et où les risques de qualité sont les plus répandus. Cela leur permet de
concentrer leurs efforts plus efficacement et de suivre les résultats des changements mis en
œuvre.
Un manager peut utiliser les KPI fournis par le SPC pour surveiller les performances
opérationnelles, les capacités et le rendement sur plusieurs lignes, usines ou régions.
Le fil conducteur de tous ces scénarios réside dans le fait que les données factuelles fournies
par l’outil SPC constituent un élément essentiel de la capacité à utiliser ces informations pour
prendre des décisions éclairées sur les améliorations et les actions correctives.
Pour un opérateur, un responsable qualité, un professionnel de l'amélioration continue ou un
cadre supérieur, l'application de l'expertise en la matière à ces informations est fondamentale
pour prendre les bonnes décisions au bon moment, sur la base des données et des informations
le SPC fondées sur des preuves.
De même, un expert en la matière qui n'a pas accès à des données et à des informations fiables
appliquera, en effet, son expertise aveuglément et avec une capacité limitée à juger de
l'efficacité de ses décisions. Ainsi, le SPC n'est sans doute ni plus ni moins importante que
l'expertise en la matière, mais les deux sont complémentaires et d'égale importance.

Vous aimerez peut-être aussi