Nous suivre Industrie Techno

National Instruments : Big Analog Data™ - La composante majeure du Big Data

National Instruments : Big Analog Data™ - La composante majeure du Big Data

© National Instruments

Big Analog Data™ - La composante majeure du Big Data

Dans le cadre d’applications de test, de mesure et de contrôle, les ingénieurs et les scientifiques sont parfois amenés à collecter d’énormes quantités de données sur de courtes durées. En 2016, quand le LLST (Large Synoptic Survey Telescope) de la National Science Foundation sera mis en service, il devrait acquérir plus de 140 téraoctets de données par semaine. De leur côté, les constructeurs de turbines à gaz affirment qu’en phase de test en production, les turbines instrumentées pour la production d’électricité génèrent plus de 10 téraoctets de données chaque jour. Un article intitulé « Big Data: Sweat the Little Stuff » (littéralement, « Big Data : Souciez-vous des petits riens »),  publié dans l’édition d’Automation World du mois d’octobre 2013, décrit une application de surveillance d’équipement acquérant 152 000 échantillons chaque seconde par capteurs, résultant en une accumulation de plus de 4 trillions d'échantillons en un an. Nick Wingfiels, blogueur pour le New York Times, consacre son billet du 12 Mars 2013 aux sociétés immobilières qui utilisent les signaux GPS émis par quelques 100 millions de conducteurs pour déterminer la durée des trajets dans les quartiers potentiellement attractifs. Tous ces exemples illustrent la tendance actuelle du Big Data.

Le Big Data n’est pourtant pas uniquement une question de quantité de données. En général, il se caractérise par l'association de trois ou quatre « V » – volume, variété, vitesse et valeur –auxquels on pourrait ajouter le V de « visibilité », qui apparaît peu à peu comme un attribut crucial du Big Data, étant donné le besoin croissant des sociétés internationales de partager l’accès aux données scientifiques, techniques et commerciales à travers le monde. Des données acquises par des équipements agricoles instrumentés dans un champ au fin fond des États-Unis peuvent, par exemple, être analysées par des scientifiques européens. Des ingénieurs d’essais sur les chaînes de fabrication en Amérique du Sud et en Chine peuvent avoir besoin de partager leurs données pour effectuer des analyses comparatives. Ce genre de procédés engendre une demande en systèmes de technologies de l'information (IT) interconnectés, tels que le Cloud, afin de garantir une connexion étroite avec les systèmes d’acquisition de données.

Caractéristiques du Big Analog Data

Le Big Analog Data diffère quelque peu du Big Data, notamment par le fait qu’il concerne également les données des systèmes IT et celles d’ordre social. Il comprend les données analogiques de tension, de pression, d'accélération, de vibration, de température, de son, et de tout ce qui touche au monde physique. Les sources de Big Analog Data sont générées par l’environnement, la nature, les hommes, ainsi que par les machines électriques et mécaniques. De plus, le Big Analog Data est l’ensemble de données le plus rapide du Big Data, puisque les signaux analogiques sont généralement des ondes continues qui doivent être numérisées à des fréquences atteignant parfois des dizaines de gigahertz, souvent en haute définition.  C’est également le plus grand type de Big Data, puisque ces informations sont sans cesse générées par des sources naturelles et artificielles. Imaginez la quantité d'ondes lumineuses, sonores ou électromagnétiques qui parcourent notre planète, le système solaire et l’univers…

Selon IBM, une grande partie des données du Big Data provient aujourd’hui de notre environnement, « y compris les signaux d’images, lumineux, sonores, et même radio – tout est analogique. » La quantité de données analogiques collectée par le Square Kilometer Array (SKA) depuis l'espace est censée représenter le décuple de celle du trafic Internet mondial [3].

L’architecture trois tiers pour le Big Analog Data

Comment tirer des conclusions précises et significatives de données analogiques si rapides et en si grande quantité constitue une réelle préoccupation. Pour suivre le rythme de l'accroissement exponentiel des données, il est nécessaire de relever les  nouveaux défis qui font leur apparition dans les domaines de l’analyse et de la recherche de données, de l’intégration et du rapport de données et de la maintenance de systèmes.  Des solutions pour la capture, l’analyse et le partage de Big Analog Data sont employées pour répondre aux problématiques liées aux mégadonnées et aux difficultés de gestion des données analogiques. Pour cela – et pour exploiter au maximum les sources de données analogiques, – les ingénieurs cherchent à présent des solutions clé-en-main.

Ils travaillent plus spécifiquement sur des architectures trois tiers, comme le montre l’illustration ci-dessous, pour créer une solution intégrée unique capable de mettre en lumière le processus complet, de la capture temps réel par capteurs à l’analyse dans les infrastructures IT en bout de chaîne. Le flux de données commence au premier tiers, au niveau des capteurs, et est capturé par les nœuds du système au deuxième tiers.


Les défis posés par le Big Analog Data avec une architecture trois tiers impliquent des capteurs et des actionneurs, des systèmes d’acquisition de données et d’analyse, et des infrastructures IT.

 

Ces nœuds effectuent l’analyse de données initiale temps réel et dynamiques. Les informations jugées importantes sont ensuite transmises de la frontière aux équipements IT traditionnels. Dans l’infrastructure IT, au troisième tiers, des serveurs et du matériel de stockage et de réseautage gèrent, organisent et effectuent de nouvelles analyses des données préliminaires et statiques. Enfin, les données sont archivées pour un usage ultérieur. À chaque étape du flux de données, le domaine des Big Analytics, actuellement en pleine expansion, génère des informations jusque-là inédites. Par exemple, l'analytique temps réel est nécessaire pour déterminer la réponse immédiate d'un système de commande de mouvement de précision. Les données statiques peuvent être exclues de l’analyse au profit de données en mouvement plus récentes, notamment pour obtenir des informations sur le comportement saisonnier d’une turbine génératrice d’énergie. Aux tiers 2 et 3, les produits et les technologies de visualisation de données permettent d'exploiter les informations acquises.

Étant donné que les solutions de Big Analog Data impliquent généralement un grand nombre de voies d’acquisition de données connectées à tout autant de nœuds de systèmes, leurs capacités en termes de fiabilité, de disponibilité, de facilité de maintenance et de gérabilité (en anglais, Reliability, Availability, Serviceability, and Manageability, ou RASM) se développent. En général, les caractéristiques RASM servent à exprimer la robustesse d'un système en fonction de l'efficacité avec laquelle il effectue une fonction définie. C'est pourquoi elles sont essentielles à la qualité de la mission pour laquelle le système en question a été conçu, et ont une influence capitale sur les résultats à la fois techniques et commerciaux. Les caractéristiques RASM peuvent permettre de déterminer le moment où une opération de maintenance préventive ou de remplacement doit avoir lieu, ce qui peut éventuellement faire d'une interruption imprévue un événement gérable, en assurant une prestation de services sans accroc et la continuité des opérations.

Les caractéristiques de facilité de maintenance et de gérabilité ne diffèrent pas de celles qui s’appliquent aux PC et aux serveurs. Elles comprennent la découverte, le déploiement, l’état de santé, les mises à jour, la sécurité, les diagnostics, la calibration et l’enregistrement d’événements. Les caractéristiques RASM sont essentielles pour réduire les risques liés à l’intégration et diminuer le coût total de possession, car les nœuds de système s’intègrent aux infrastructures IT du troisième tiers.

Le Big Data le plus ancien, le plus rapide et le plus imposant – le Big Analog Data – est une mine de connaissances commerciales, techniques et scientifiques. Pour exploiter cette énorme ressource, les développeurs se tournent vers des solutions reposant sur des outils et des plates-formes qui s’intègrent parfaitement entre eux et avec un grand nombre de partenaires. Cette architecture trois tiers pour le Big Analog Data fait l'objet d'une demande croissante, étant donné son aptitude à pallier aux difficultés rencontrées dans des domaines d’applications-clés tels que la recherche scientifique, le test de produits et la surveillance de l’état des machines.

Bienvenue !

Vous êtes désormais inscrits. Vous recevrez prochainement notre newsletter hebdomadaire Industrie & Technologies

Nous vous recommandons

National Instruments : les capteurs doivent évoluer pour permettre l'avènement de l'Industrie 4.0

Dossiers

National Instruments : les capteurs doivent évoluer pour permettre l'avènement de l'Industrie 4.0

Le passage réussi du concept de l'Industrie 4.0 à la réalité va dépendre fortement de la qualité des[…]

National Instruments : le défi de la conception cyber-physique

National Instruments : le défi de la conception cyber-physique

Plus d'articles