IOT et industrie : Faire la lumière sur l'informatique de périphérie dans l'IoT industriel

Ce que vous allez apprendre Le concept de l’informatique de périphérie et ses avantages pour l’IIoT. Exploiter l’apprentissage automatique dans l’informatique périphérique. Une grande partie des discussions autour de l’informatique de périphérie se situe dans le contexte de l’IoT industriel, nous allons donc commencer par définir ce terme. Essentiellement, l'informatique de périphérie signifie que les données collectées par un capteur ou un groupe de capteurs sont traitées à la source sans que les données soient transférées vers la ressource informatique centrale ou cloud. Dans certains cas, les données traitées (un ensemble de données beaucoup plus petit que les données brutes) seraient transmises au cloud pour la tenue de registres historiques ou un traitement ultérieur tel que l'analyse des tendances. Clarifions avec un exemple. Pensez à une caméra industrielle utilisée dans un environnement de fabrication pour inspecter les pièces. Une telle caméra combinerait un capteur CMOS avec un processeur et un logiciel pour inspecter le produit et effectuer une détermination de la qualité à la périphérie sans avoir à transférer les données vers le cloud. Dans une usine d'embouteillage, par exemple, un appareil à bord intelligent (dans ce cas, une caméra) pourrait lire les étiquettes, vérifier si la bouteille est pleine et peut-être même vérifier le sceau – tout cela pendant que les bouteilles se déplacent sur la chaîne de montage. Dans une chaîne d'assemblage de fabrication de circuits imprimés, ce type de caméra peut signaler des erreurs de routage importantes et d'autres défauts potentiels. Souvent, ces caméras seraient connectées à un PC industriel local (pour stocker les données historiques) mais ne seraient pas connectées à Internet pour minimiser les risques de sécurité (voir figure) .En permettant aux données d'être traitées plus près de l'endroit où elles ont été créées, l'informatique de pointe ouvre la voie à des processus de fabrication plus intelligents.
Il s'agit de l'informatique de périphérie classique, où les données peuvent et doivent être traitées localement (pour la latence) et la capacité de traitement peut être incorporée dans un appareil à petit facteur de forme déployé sur la chaîne d'assemblage réelle (c'est-à-dire à la périphérie de l'industrie. réseau). Selon CB Insights, «Edge computing permet de traiter les données plus près de l'endroit où elles ont été créées (c'est-à-dire les moteurs, les pompes, les générateurs ou d'autres capteurs), ce qui réduit le besoin de transférer des données dans les deux sens entre le cloud.» 4 Avantages d'Edge La latence de calcul est définie comme le temps nécessaire pour que les données se déplacent du capteur au processeur. Dans de nombreux cas d'utilisation industrielle, la latence totale, qui comprend le traitement et le retour des données pour entreprendre une action critique, est importante. Prenons le cas d'une barrière électronique (également appelée barrière immatérielle) autour d'une machine à souder. Si quelqu'un franchit la barrière, le soudage doit être désactivé. De plus, lorsque quelque chose arrive à moins de X mm de la barrière, une alarme doit se déclencher pour indiquer le danger. Dans un tel cas d’utilisation, il n’ya aucune raison d’envoyer les données générées par la barrière immatérielle sur le réseau. Un processeur local peut traiter à la fois les données de violation et les données de proximité et déclencher la réponse appropriée. Certaines des données peuvent être stockées en mémoire et, à un moment prédéterminé, être envoyées au cloud pour une analyse de tendance. Le fait d'avoir le processeur local dans le périphérique périphérique minimise non seulement la latence, mais garantit également une latence déterministe. Les données qui transitent par Ethernet vers un processeur qui planifiera le traitement des données à un moment opportun ne fonctionnent pas dans une usine ou dans un environnement industriel, où la latence doit être déterministe à tout moment. Considérez une voiture autonome comme l'appareil de pointe ultime. Les données visuelles et radar traitées par le véhicule doivent être traitées dans un délai défini de millisecondes et les mesures prises doivent se faire dans une courte fenêtre de temps déterministe. Ce type de données ne se prête pas au traitement dans le cloud. Michael Clegg, vice-président de Supermicro 2, a expliqué cela d'une manière très intéressante: «En traitant les données entrantes à la périphérie, moins d'informations doivent être envoyées dans le cloud et inversement. Cela réduit également considérablement la latence de traitement. Une bonne analogie serait une pizzeria populaire qui ouvre de plus petites succursales dans plus de quartiers, car une tarte cuite au four sur le site principal deviendrait froide en route vers un client éloigné. Minimiser le transfert de données Pour comprendre la quantité de données dont nous parlons, voici ce que dit un livre blanc IDC: «D'ici 2025, 175 zettaoctets (ou 175 billions de gigaoctets) de données seront générés dans le monde. Les périphériques Edge créeront plus de 90 zettaoctets de ces données. »3 Bien sûr, cela concerne toutes les données, pas seulement dans le contexte industriel. Pourtant, cela souligne l'ampleur du problème potentiel de transfert de données. Pour un exemple de latence et de minimisation du transfert de données, considérons un capteur de vibrations sur un moteur. La fréquence des vibrations peut être un bon indicateur d'une défaillance imminente et peut même signaler un problème immédiat pouvant nécessiter un arrêt ou une alarme. Les données de vibration collectées peuvent être énormes, et toutes ne valent pas la peine d'être stockées ou analysées. Le capteur de vibration peut avoir un processeur local qui effectue, par exemple, une transformée de Fourier rapide (FFT) sur les données de vibration et marque immédiatement les fréquences, ce qui peut nécessiter un arrêt, une maintenance dans une fenêtre de temps définie ou une telle action corrective. En effectuant le traitement localement, seules les données pertinentes doivent être transférées vers le cloud pour une analyse hors ligne. Bien que les données résumées puissent être envoyées au cloud pour une analyse ultérieure, la mauvaise fréquence doit être signalée immédiatement par le capteur de vibration pour éviter tout dommage grave. Ainsi, la limitation de latence. Une étude de cas réalisée par IHS Markit sur un système IoT industriel de Duke Energy note: «Pour collecter des informations sur les vibrations, il peut être nécessaire de capturer entre 10 000 et 100 000 échantillons par seconde pendant plusieurs secondes pour obtenir une bonne mesure de l'état de la machine.» 1 Ces données doivent être traitées en temps réel à l'aide de systèmes de traitement de périphérie, qui peuvent ensuite restreindre les données à celles relatives à l'état de santé de la machine. » Sécurité Ce n’est pas un avantage propre pour l’informatique en périphérie. Alors qu'un périphérique de périphérie à espace aérien et physiquement sécurisé aurait un risque de sécurité moindre, un périphérique de périphérie connecté à Internet ou compromis peut augmenter considérablement la surface d'attaque. Comme nous le savons tous, presque tout ce qui est connecté à un réseau peut être piraté. Bien que la perte de données confidentielles soit certainement gênante, imaginez les ravages si les périphériques de bord qui ouvrent ou ferment une vanne ou actionnent des alarmes sont piratés pour fonctionner de manière potentiellement dangereuse. Dans un réglage d'usine, les périphériques de périphérie se trouvent dans un environnement physiquement sécurisé. Si le seul canal de communication entre les appareils périphériques et le PC industriel connecté est pour un vidage de données unidirectionnel – par exemple, un flux d'analyse de fréquence des données de vibration pour la journée – le système est bien sécurisé. Cependant, si les périphériques de périphérie peuvent être contrôlés ou reconfigurés à partir du PC industriel ou d'un microPLC, la sécurité dépend de la protection de ce système contre les attaques. De nombreux périphériques de périphérie auront une sorte de capacité d'accès et de gestion à distance. Ou, un capteur intelligent dans, par exemple, une application de surveillance de la pression d'un oléoduc est suffisamment éloigné pour ouvrir la porte à une altération physique. Dans l'un ou l'autre de ces cas, un périphérique informatique de périphérie intelligent devra avoir des protocoles de sécurité standard intégrés via logiciel ou matériel. Tendances de l'informatique en périphérie dans la fabrication tirant parti de l'apprentissage automatique Bientôt, nous verrons des algorithmes d'apprentissage automatique appliqués aux logiciels contrôlant les périphériques de périphérie. Au début, une grande quantité de données visuelles (pour revenir à l'exemple de la caméra industrielle dans l'introduction) pour les bonnes et les mauvaises pièces peut être introduite dans un système d'apprentissage automatique basé sur le cloud pour entraîner le réseau neuronal. Les données de formation seraient utilisées pour développer un bon / mauvais algorithme de classification. En règle générale, alors que l'algorithme d'apprentissage nécessite des ressources informatiques massives, les algorithmes déduits sont plus petits et peuvent être exécutés sur un microprocesseur de faible puissance. Le seul hic dans le développement d'un algorithme de formation en réseau neuronal profond pour les applications industrielles est la disponibilité d'un ensemble de données de formation suffisamment volumineux. Par exemple, plus de 350 millions de photos sont téléchargées chaque jour sur Facebook. C'est un énorme ensemble de données d'entraînement. Dans n'importe quel environnement industriel, l'ensemble de données de formation ne représente qu'une petite fraction de ce qui est disponible dans le monde grand public. Il reste à voir dans quelle mesure l'apprentissage automatique sera efficace pour créer des algorithmes d'inférence pour les systèmes industriels. Cependant, nous verrons certainement des appareils informatiques de pointe tirer parti des nouvelles technologies d'apprentissage automatique dans un proche avenir. Séparer les données utiles des données simples Alors que nous commençons à collecter des téraoctets, des pétaoctets et encore plus de niveaux de données, il devient clair que toutes les données ne sont pas utiles pour être transmises, stockées et analysées. Dans le contexte industriel, il y a un coût pour conserver les données et exécuter des algorithmes pour analyser et corréler cet énorme ensemble de données à un événement intéressant spécifique (par exemple, une panne ou une efficacité énergétique). Nous savons par expérience que certains ensembles de données sont en corrélation avec ce qui nous intéresse: prédire les pannes via la fréquence de vibration, prédire l'utilisation optimale de l'énergie via le courant et la phase, prédire les performances optimales d'un moteur via les variations de vitesse, pour donner quelques exemples. Ces ensembles de données sélectionnés peuvent être stockés et même transmis au cloud pour une analyse plus approfondie et pour développer des algorithmes d'inférence optimaux. Certains ensembles de données peuvent être considérés comme ayant une faible valeur pour la prédiction ou l'optimisation et peuvent être rejetés à la périphérie une fois que l'action nécessaire est prise. Rise of Predictive Maintenance Une étude de cas intéressante pour la maintenance prédictive est une startup australienne appelée Ping Monitor, qui a développé un système de surveillance acoustique des éoliennes. Le système repose sur la base d'une éolienne et mesure le son généré par les pales de la turbine lors de leur rotation. Tirant parti de cette acoustique, l'entreprise dispose d'un système basé sur l'IA qui peut prédire toute défaillance ou comportement anormal de l'éolienne. Un dispositif de bord comme celui-ci permet d'économiser sur les coûts d'exploitation et les coûts d'inspection. En planifiant la maintenance à l'avance, il optimise également la production d'énergie.5 Si la maintenance prédictive a toujours été présentée comme l'application tueur de l'IoT industriel, elle n'a jusqu'à présent pas tenu ses promesses. Au fur et à mesure que les appareils de périphérie deviennent de plus en plus sophistiqués et capables d'incorporer davantage de composants de traitement et de détection, ils joueront probablement un rôle croissant en nous donnant enfin l'objectif insaisissable de la maintenance prédictive. Conclusion Le Edge computing est en effet la dernière tendance dont tout le monde parle, mais c'est plus qu'une mode passagère. Ce type d'informatique distribuée – à la périphérie et dans le cloud quand cela a du sens – est là pour rester. Certaines données, en particulier dans le cadre industriel, sont mieux traitées et exploitées localement. De même, certains ensembles de données sont mieux analysés en conjonction avec une grande quantité de données historiques. Puisqu'il est tout à fait clair que tous les appareils intelligents n'ont pas besoin d'accéder au cloud pour avoir un sens et agir sur les données, l'ère de l'informatique de pointe est là pour rester et exister en parallèle avec le cloud computing.Suhel Dhanani est directeur du développement commercial, industriel et Business Unit Santé, chez Maxim Integrated. Références: 1. https://technology.ihs.com/599357/industrial-iot-case-study-duke-energy-january-2018 2. https://enterprisersproject.com/article/2019/7/edge-computing -explained-plain-english? sc_cid = 70160000000h0axaaq 3. https://resources.moredirect.com/white-papers/idc-report-the-digitization-of-the-world-from-edge-to-core 4. https : //www.cbinsights.com/research/what-is-edge-computing/ 5. https://www.pingmonitor.co/

Laisser un commentaire