ENGINEERINGNET.BE - Te midden van deze enorme explosie van engineerings- en meetgegevens zijn de bedrijven, die nog geen strategie hebben ontwikkeld voor het beheer van hun informatie, binnen enkele jaren niet meer in staat om effectief met hun data om te kunnen gaan of deze informatie optimaal te beheren.
Vanwege dit gegeven moeten de beste meetoplossingen beschikken over een tweetal fundamentele eigenschappen: 1. Analysefaciliteiten zo dicht mogelijk bij de sensor en 2. Intelligent beheer en analysemogelijkheden binnen de onderneming.
Meetanalyse op het scherp van de snede
De intelligentie van data-acquisitie apparaten en sensoren is het afgelopen decennium drastisch toegenomen. Neem bijvoorbeeld het gegeven dat er meer is gedecentraliseerd waarbij de verwerking dichter bij de sensor is komen te zitten.
Een blik gericht op de vele voorbeelden van acquisitiesystemen en nodes waarin de nieuwste IC’s en IP van bedrijven als ARM, Intel en Xilinx zijn geïntegreerd tonen dit overduidelijk aan. Naast het feit dat meetapparatuur steeds intelligenter wordt, zijn er intelligente sensoren opgedoken dat naast de sensor zelf ook de signaalconditionering, de embedded verwerking en de digitale interface/bus bevatten binnen een extreem kleine behuizing.
Kijkend naar deze trend wordt duidelijk dat meer en meer de intelligentie en de signaalverwerking decentraal en dicht bij de sensor plaatsvindt. Dit wordt ook wel de ‘edge’ genoemd. Traditionele meetsystemen binnen een standaard monitoringsysteem loggen elk datapunt naar een disk, zelfs op momenten dat er geen veranderingen worden gemeten vindt deze dataopslog plaats. Het resultaat hiervan kan zijn dat er gigabytes, soms wel terabytes, aan data van duizenden sensoren offline moeten worden doorzocht, gefilterd en geanalyseerd.
Innovatie in meetsysteem software is vereist om de efficiëntie van de analyses optimaal te realiseren nu de verwerking van de data steeds meer naar de sensor verschuift. De toekomstige software voor dergelijke edge-gebaseerde systemen zal snel configuraties kunnen opzetten en het beheer moeten voeren over de duizenden in het netwerk geplaatste systemen.
Daarnaast moet het een grote hoeveelheid analyse- en signaalverwerkingsopdrachten sturen naar deze nodes. Vooruitkijkend moeten bedrijven deze overgang naar intelligentere, software-gebaseerde meet-knooppunten goed aanpakken om mee te kunnen komen met de hoeveelheid aan gegevens die deze nodes produceren.
Het creëren van intelligentere bedrijfsbeheermanagement en analyses
Zodra de data is ingelezen en verwerkt door de decentrale intelligente nodes is de volgende stap de gegevens zo effectief mogelijk in het bedrijf te krijgen om efficiënt deze te beheren, opslaan en grootschalige en uitgebreide analyses op de verkregen data mogelijk te maken.
Bij een systeem voor het beheer en de analyse van de gegevens is het primair van belang de juiste informatie bij de juiste mensen op het juiste moment te krijgen. Hiermee zijn zij in staat om de juiste beslissingen te kunnen nemen gebaseerd op de data. Twee belangrijke overwegingen hierbij zijn de beschikbaarheid van de goed gedocumenteerde datasets en intelligentere analyses.
Goed gedocumenteerde datasets
Alle data moeten, om nauwkeurige analyses en vergelijking van gegevens van meerdere bronnen uit te kunnen voeren, beschikken over consistente metadata of een beschrijvende informatie waarin eenduidig wordt beschreven waarom deze data wordt bewaard. Metadata kan gegevens zoals de testopstelling, de testresultaten, de meeteenheden en dergelijke bevatten.
Volgens onderzoeksbureau IDC (International Data Corporation) wordt 22 procent van de meetgegevens voldoende gedocumenteerd, maar kunnen bedrijven gemiddeld slechts 5 procent van die gegevens analyseren. Het gaat hierbij om een grote hoeveelheid van in potentie kritische gegevens dat eenvoudigweg niet wordt gebruikt. Ondernemingen die zich focussen op het standaardiseren van hun metadata, waardoor de hoeveelheid informatie die ze automatisch kunnen analyseren aanzienlijk toeneemt, zien hier in toenemende mate de grote concurrentievoordelen van in.
Voordat gestart kan worden met de implementatie naar de gestandaardiseerde metadata moeten de engineers eerst overeenstemming bereiken over welke meta-informatie voor hun analyses werkelijk van belang is. De beste ondernemingen beschikken vaak over een specificatieproject om de nomenclatuur van de metadata en de attributen die moeten worden verzameld te omschrijven.
Applicaties moeten derhalve trachten om zo veel mogelijk van de overeengekomen attributen op de acquisitieplek te realiseren. Veel bedrijven voegen echter ook attributen toe nadat de data is verzameld doordat zij automatische controles uitvoeren en worden de ontbrekende attributen vervolgens toegevoegd.
Een voorbeeld is Jaguar Land Rover die de metadata van de kwaliteitscontroles heeft geautomatiseerd. En binnen een jaar van ontwikkelen en het implementeren van een bedrijfsoplossing voor het beheren van de gegevens schat zij dat van het analyseren van die data van voor de aanpassingen 10 procent bedroeg en tegenwoordig meer dan 95 procent data-analyse wordt gerealiseerd. De uniformiteit van hun data bood hen de gelegenheid om de consistente en geautomatiseerde analyses toe te wijzen aan de gedefinieerde metadata.
Intelligentere analyses
Volgens het rapport van Frost & Sullivan van September 2015 op de ‘Global Big Data Analytics Market for Test & Measurement’ kunnen de kosten voor het ontwikkelen van producten met bijna 25 procent worden gereduceerd, de operationele kosten met bijna 20 procent worden verlaagd en de onderhoudskosten worden gehalveerd als ‘big data’ analyses voor het testen worden toegepast.
Gezien het feit dat analoge data de snelst groeiende en grootste gegevenstype is dat kan worden verzameld, is het juist voor deze markt van belang dat nieuwe correlaties worden gevonden en dat toekomstig gedrag wordt voorspeld. Het zijn deze faciliteiten die een concurrentievoordeel geven.
De realisatie hiervan betekent dat ondernemingen die gebruik maken van metingen voor het doen van onderzoek, ontwikkeling en validatie drastische verbeteringen moeten aanbrengen in hoe zij optimaal de data willen verzamelen, analyseren en beheren binnen het bedrijf om er van verzekerd te zijn dat zij optimaal gebruik kunnen maken van de hefboomwerking in efficiëntie en het toepassen van op feiten gebaseerde beslissingen. Hoe eerder zij hiertoe overgaan, hoe sneller en eerder zij de betere gegevens kunnen inzetten en daarmee het rendement verbeteren.
QUOTE
“Directe analyses bij de meetpunten in IoT en andere industriële oplossingen spelen een belangrijke rol bij het oplossen van het ‘Big Analog Data’-probleem. Intelligente meetpunten bieden de faciliteiten om data inline te analyseren en daaraan gekoppeld het versnellen van betekenisvolle resultaten. Het gaat erom snel inzicht in ‘Big Data’ te verkrijgen.- Dr. Tom Bradicich, General Manager and Vice President, Hyperscale Servers and IoT Systems, Hewlett Packard Enterprise
Klik hier voor meer informatie
Voor meer informatie:
National Instruments
Ikaroslaan 79 - B-1930 Zaventem
www.ni.com/nl-be.html
Bericht van de redactie: dit is een ingezonden mededeling, die mogelijk niet vrij is van commerciële invloeden. De verantwoordelijkheid voor de verstrekte technische en andere gegevens berust volledig bij de vermelde leverancier of fabrikant.