Data Science Pipeline

Grundlage für die datenbasierte Fertigung


Die Data Sciene Pipeline: Grundlage für die datenbasierte Fertigung

Wie man sich vorstellen kann, fallen bei vernetzten Maschinen eine große Anzahl von Daten an. Praktisch jeder Wert einer Maschine kann erfasst werden: von der Position jeder Achse, über die Temperatur, bis zum Stromverbrauch u. v. m. Dies geschieht nicht nur einmal, sondern hunderte Male pro Sekunde. Diese große Menge an Rohdaten nun in eine Form zu bringen, dass man mit ihnen arbeiten kann, dafür haben wir die Data Science Pipeline entwickelt.

Was ist eine Data Pipeline?

Wie schon erwähnt, fallen in der Fertigung eine große Menge von Daten an. Viele von diesen Daten werden allerdings gar nicht gebraucht. Oft wird nur ein kleiner Teil der Daten benötigt, um damit z.B. einen Algorithmus zu trainieren, der die Achsen überwacht. Oder die Daten müssen aufgeteilt werden, um sie z.B. auf den EDNA Dashboards darstellen zu können. Die Aufgabe dabei ist immer die gleiche: Die Daten müssen gesammelt, aufbereitet und an die richtigen Stellen transportiert werden – dies nennt man dann eine Daten Pipeline.

Es gibt eine hohe Bandbreite an Anwendungsfällen für eine solche Data Pipeline. Daher gehört die Auslegung dieser Pipeline zu den Kernelementen eine jeder Datenstrategie und damit auch zur datenoptimierten Fertigung.

Profitieren Sie vom großen Erfahrungsschatz unserer Experten im Aufbau von Data Pipelines im industriellen Kontext. Von der Konsolidierung von Maschinendaten über verschiedene Hersteller, über die Visualisierung von Produktionsdaten bis zu Data-Warehouse-Strategien um damit erfolgreiches Data Science zu ermöglichen. Lassen Sie sich unverbindlich beraten.