Internet Industriel des Objets IIOT : Classification des plates-formes informatiques modernes Edge

Il y a dix ans, la périphérie informatique signifiait la livraison de contenu statique via un réseau de distribution de contenu distribué (CDN). Akamai, Limelight Networks, Cloudflare et Fastly sont quelques-uns des exemples de services CDN. Ils offrent une haute disponibilité et des performances élevées en distribuant et en mettant en cache le contenu plus près de l'emplacement de l'utilisateur final.

Électricité

Pixabay

La définition de l'arête a considérablement changé au cours des cinq dernières années. Aujourd'hui, une arête représente plus qu'un CDN ou une couche de calcul. Il est devenu une extension du cloud public fonctionnant dans des environnements et des contextes informatiques extrêmement divers.
PLUS DE FORBESCapacité critique pour le calcul de périphérie dans les scénarios IoT industrielsPar Janakiram MSV

Avant d'examiner la classification des arêtes, comprenons l'évolution de l'arête.
Quatre facteurs ont influencé l'évolution du bord moderne:

Cloud – Le cloud computing a fourni des services de calcul, de stockage et de mise en réseau aux entreprises. Les services de stockage d'objets tels qu'Amazon S3, Azure Storage et Google Cloud Storage sont devenus l'origine et la source du stockage du contenu utilisé par les charges de travail hébergées dans le cloud. CDN est devenu une extension logique du stockage d'objets pour distribuer et mettre en cache du contenu sur un réseau d'emplacements périphériques. Amazon Cloudfront, Azure CDN, Google Cloud CDN sont des exemples de réseaux de diffusion de contenu étendant les capacités de stockage d'objets.
IoT industriel – L'essor de l'IoT industriel (IIoT) a entraîné l'introduction de la passerelle IoT – un appareil spécialisé qui convertit les protocoles utilisés par les appareils locaux en protocole cloud. Un exemple classique d'une telle traduction comprend la conversion OPC UA en MQTT et le mappage Modbus et bus CAN en TCP ou UDP. La passerelle IoT a également agi comme un agrégateur de données en combinant et en multiplexant les flux de télémétrie de plusieurs appareils et en les filtrant avant de les diffuser dans le cloud.
Intelligence artificielle – Plus récemment, l'IA est devenue un élément clé de l'IIoT. En déployant des modèles d'apprentissage en profondeur à la périphérie, les organisations sont en mesure d'effectuer l'inférence en temps réel. La maintenance prédictive – une approche pour détecter les défaillances des appareils et des machines avant la perturbation réelle – nécessite un délai d'exécution plus rapide. L'inférence des flux de télémétrie dans le cloud est non seulement lente mais aussi coûteuse en termes de coût de bande passante. Les clients de l'IIoT souhaitent exécuter des modèles d'IA localement en les gardant plus proches des appareils qui agissent comme l'origine des données.
Réseaux 5G – Les réseaux 5G changent la donne pour les organisations des secteurs de la fabrication, de la santé, de la vente au détail et de l'automobile. L’infrastructure fonctionnant dans les installations d’un fournisseur de télécommunications connecté via le réseau 5G a une faible latence. Les fournisseurs de télécommunications s'orientent vers une couche d'infrastructure hébergée à locataires multiples qui comble le fossé entre le cloud et les utilisateurs finaux. Les fournisseurs de cloud public tels qu'Amazon, Google, IBM et Microsoft s'associent à des sociétés de télécommunications pour apporter certains des services gérés à l'emplacement périphérique basé sur la 5G.

Les tendances ci-dessus ont changé la définition de l'informatique de périphérie en élargissant la portée et en élargissant les limites de la périphérie.
Une couche informatique de périphérie s'exécute n'importe où entre la couche des appareils et la couche cloud.

Classifier le bord

Janakiram MSV

Voici six formes d'informatique périphérique qui couvrent tout le spectre couvrant les appareils vers le cloud:
Micro Edge
Le micro bord est l'incarnation la plus récente de la couche de calcul de bord. Lorsqu'un microcontrôleur est capable d'exécuter un modèle TinyML AI, il peut être considéré comme un dispositif informatique à micro-périphérie. Dans ce cas d'utilisation, les capteurs connectés au microcontrôleur génèrent le flux de télémétrie qui est utilisé par un modèle d'apprentissage profond pour l'inférence. Contrairement à d'autres scénarios où le microcontrôleur collecte la télémétrie et ingère dans une couche informatique de bord, ce type de bord s'exécute dans le contexte d'un microcontrôleur et d'un microprocesseur.
Des exemples de pile matérielle et logicielle comprennent TensorFlow Lite fonctionnant sur une combinaison de processeur ARM Cortex-M co-localisé avec un microcontrôleur tel que nRF52840 ou Apollo3 Blue.
Mini Edge
Le mini bord est basé sur un ordinateur à carte unique construit sur une architecture ARM64 et AMD64. Il est généralement alimenté par un accélérateur AI pour accélérer l'inférence. Il est également capable d'exécuter un système d'exploitation complet tel que Linux ou Microsoft Windows. Mini edge est livré avec une pile logicielle associée à l'accélérateur AI. Ces types de périphériques périphériques sont idéaux pour la traduction de protocoles, l'agrégation de données et l'inférence AI.
Des exemples de mini bord incluent un module NVIDIA Jetson Nano exécutant NVIDIA JetPack et TensorRT ou une carte X86 avec Intel Movidius Myriad X Vision Processing Unit (VPU) exécutant la distribution Intel d'OpenVINO Toolkit. Le mini bord fonctionne dans des environnements déconnectés, mobiles et éloignés tels que des camions, des navires, des avions et des éoliennes.
Bord moyen
Le modèle de déploiement de périphérie moyenne représente un cluster de machines peu coûteuses fonctionnant au niveau de la couche informatique de périphérie. Le cluster de calcul est alimenté par une unité de traitement graphique interne (GPU), des matrices de portes programmables sur site (FPGA), une unité de traitement de vision (VPU) ou un circuit intégré spécifique à l'application (ASIC). Un gestionnaire de cluster comme Kubernetes est utilisé pour l'orchestration des charges de travail et des ressources dans les clusters.
Les exemples de bord moyen incluent un cluster Kubernetes de machines Intel NUC ou Zotac Mini PC connecté à des GPU NVIDIA ou à des VPU Intel Movidius déployés dans un magasin de détail ou un restaurant. Ils peuvent exécuter les modèles NVIDIA CUDA / TensorRT ou Intel OneDNN / OpenVINO pour l'accélération de l'IA.
Bord lourd
Le périphérique informatique de pointe est généralement une appliance d'infrastructure hyperconvergée (HCI) qui s'exécute dans un centre de données d'entreprise. Il est livré avec une pile matérielle et logicielle tout-en-un généralement gérée par un fournisseur. La périphérie lourde requiert de l'énergie et des ressources réseau qui ne sont disponibles que dans un environnement comme un centre de données d'entreprise.
Heavy Edge se double d'une passerelle IoT, d'une passerelle de stockage, d'une formation IA et d'une plate-forme d'inférence. Il est livré avec une gamme de GPU ou FPGA conçus pour gérer des pipelines d'apprentissage automatique de bout en bout, y compris la formation et le déploiement de modèles.
AWS Snowball Edge, Azure Stack Edge, NVIDIA EGX A100 et Nutanix Acropolis sont quelques-uns des exemples de bord lourd.
Bord multi-accès
Le Multi-Access Edge Computing (MEC) déplace l'informatique du trafic et des services d'un cloud centralisé vers la périphérie du réseau et plus près du client. Avec la 5G qui devient réalité, MEC devient la couche intermédiaire entre les consommateurs et les fournisseurs du cloud public.
PLUS DE FORBESAzure Stack Edge obtient un GPU NVIDIA pour accélérer l'IA à la périphériePar Janakiram MSV
Avec MEC, l'infrastructure de pointe fonctionne dans les locaux d'un fournisseur de télécommunications colocalisé dans un centre de données ou même une tour cellulaire. Cela est fourni via un service géré soit par la compagnie de télécommunications ou un fournisseur de cloud public.
PLUS DE FORBESA Zoom sur la stratégie de cloud mobile 5G de GooglePar Janakiram MSV
AWS Wavelength, Azure Edge Zones et Global Mobile Edge Cloud de Google optimisés par Anthos sont des exemples de MEC.
Cloud Edge
Cloud Edge fait ce que CDN a fait pour le contenu statique, mais pour les charges de travail dynamiques. Il permet de distribuer les composants d'une application sur plusieurs points de terminaison pour réduire la latence impliquée dans l'aller-retour. Cloud Edge s'appuie sur des paradigmes de développement d'applications modernes tels que des conteneurs et des microservices pour répartir la charge de travail. Le contenu statique et les composants sans état d'une application sont répliqués et mis en cache sur le réseau mondial.
Les fournisseurs de cloud edge peuvent prendre en charge l'accélération de l'IA en tant que fonctionnalité facultative. Comme il est fourni en tant que service géré, les clients n'auront pas à gérer la maintenance matérielle et logicielle.
Section.io, Volterra.io, Mimik et Swim.ai sont quelques-uns des fournisseurs offrant des capacités de périphérie cloud. Avec des investissements accrus dans des environnements hybrides et multi-cloud basés sur Kubernetes, les fournisseurs de cloud traditionnels peuvent éventuellement proposer des services cloud edge comme une extension de leurs plateformes existantes.
La définition de l'informatique de pointe et l'écosystème évoluent rapidement pour répondre aux demandes des clients d'entreprise.

Laisser un commentaire