Internet Industriel des Objets IIOT : Minimiser l'empreinte de l'algorithme et la formation à la périphérie du réseau AI

Le traitement des données n'est certainement pas un nouveau concept, pas plus que les algorithmes. Cependant, là où les algorithmes sont formés et exécutés évolue rapidement. Ces dernières années, la formation d'algorithmes d'apprentissage automatique (ML) a, dans l'ensemble, été menée dans des environnements cloud en raison de la capacité à utiliser des ressources de calcul temporaires pour effectuer ces tâches gourmandes en données.

Aujourd'hui, il y a un grand effort pour traiter les données aussi près que possible de la source. Cela est dû à l'avènement de l'Internet des objets (IoT) et de diverses technologies qui génèrent désormais une quantité massive de données. Toutes ces données incitent les organisations à se démener pour en tirer le meilleur parti de manière rentable. Les organisations doivent prendre en compte le coût de la transmission des données depuis leur source d'origine jusqu'à l'endroit où elles sont traitées, ainsi que le coût de stockage et de traitement des données, là encore généralement dans les serveurs / environnements cloud gourmands en ressources.

Les technologies d'intelligence artificielle (IA) commencent à émerger qui permettent la formation et l'exécution de modèles ML sur des appareils à faible puissance de calcul tels que les microcontrôleurs (MCU) ESP32 et Cortex M4 plutôt que des unités de microprocesseur (MPU) plus grandes. Cela permet aux données de rester locales et la transmission des données traitées n'a lieu que dans le cloud lorsque cela est nécessaire.

En ramenant les exigences d'encombrement globales à moins de 100 Ko pour former et exécuter un modèle ML, l'IA dans l'informatique embarquée entre dans un nouveau domaine. Par exemple, l'algorithme de tri de bulles pourrait être plus bien accueilli par un ingénieur d'algorithme embarqué que l'algorithme de tri par fusion, car le premier utilise la mémoire existante en place. Bien que de nombreux algorithmes existent déjà, de nouveaux algorithmes de prédiction de séries chronologiques basés sur l'IA sont en cours de développement et d'optimisation pour l'environnement embarqué. Avec cette nouvelle approche, les modèles AI / ML sont formés sur les cartes embarquées. Ces modèles sont ensuite utilisés pour effectuer des inférences statistiques à variantes multiples pendant la période d'exécution.

Ces nouveaux algorithmes de prédiction de séries chronologiques basés sur l'IA présentent trois avantages:

La solution est indépendante de la latence du réseau puisque le calcul est effectué sur des cartes locales, donc les performances sont améliorées.
La sécurité / confidentialité des données brutes est garantie puisque le signal / les données brutes n'apparaissent que localement.
Pour chaque carte embarquée, un nouveau modèle ML / AI est formé. Cela pourrait être le principal atout de cette approche car dans les cas industriels typiques, en raison des variantes d'environnement, des imperfections du capteur et des variantes de machine, il n'est pas possible d'utiliser un seul modèle ML / AI pour couvrir les fonctionnalités d'un cluster de machines. Il n'était pas non plus abordable de former des modèles pour chaque carte intégrée à l'aide de serveurs cloud.

Percées technologiques

Les algorithmes jouent un rôle important dans l'informatique embarquée. En règle générale, les tâches algorithmiques exécutées par les dispositifs intégrés comprennent le nettoyage / filtrage des données de capteur, le codage / décodage des données et la génération de signaux de commande. En raison de la capacité de mémoire limitée, de la puissance du processeur et des différentes architectures, la définition du «meilleur algorithme» dans l'environnement informatique embarqué pourrait être très différente de celle des PC et des serveurs cloud.

Au cours des dernières années, il y a eu une percée et des progrès très rapides des algorithmes d'IA / ML. De nombreux efforts se sont concentrés sur l'adoption de modèles d'IA / ML (ces modèles ont été formés ailleurs) au contexte intégré. En d'autres termes, pour déployer avec succès des modèles AI / ML, l'utilisation de la mémoire / du processeur et la consommation d'énergie des algorithmes doivent être optimisées.

L'IA se rétrécit et peut exécuter ces algorithmes avancés. Les progrès technologiques permettent désormais à l'IA et à la maintenance prédictive de passer des appareils basés sur MPU aux appareils basés sur MCU, avec un faible encombrement et un prix nettement inférieur. Les périphériques basés sur MCU peuvent désormais effectuer des tâches à la périphérie du réseau, une telle maintenance prédictive, qui n'étaient auparavant disponibles que sur les MPU. Cette nouvelle fonctionnalité permet aux fabricants de silicium, aux fabricants d'équipement d'origine (OEM) et aux fabricants d'appareils intelligents de réduire les coûts et de proposer des offres de produits différenciées.

A propos de l'auteur

Yasser Khan est PDG de One Tech, Inc., une organisation mondiale axée sur la redéfinition de l'intelligence artificielle à la périphérie du réseau. Il est un chef d'entreprise chevronné et un entrepreneur en série dans le domaine de la transformation numérique avec un accent sur l'automatisation des processus d'affaires, l'IIoT (Internet des objets industriels) et l'intelligence artificielle / l'apprentissage automatique. Il a plus de 25 ans d'expérience dans le lancement de solutions technologiques intelligentes et de nouveaux modèles commerciaux pour les organisations de taille moyenne à entreprise. Il a mis en œuvre des écosystèmes technologiques innovants au sein de plusieurs organisations mondiales du classement Fortune 100, notamment AT&T, Nutrien et Cricket Wireless. En 2016, Khan a été nominé pour «Entrepreneur de l'année» par Ernst & Young LLP.

Laisser un commentaire