Lexikon

leadership by lorenzo tural

Industrie 4.0 und Big Data Management


Auf der Hannover Messe 2014 zeigt das Team vom Fraunhofer IGD einen Prototyp im Format einer Miniaturfabrik. In ihr sortiert ein Industrieroboter Spezialbehälter um.

Die Szene um den Roboter herum wird von Kameras erfasst, die den Status der realen Welt kontinuierlich in die virtuelle Welt übertragen.

Als Besucher des Messestands können Sie direkt auf das Geschehen einwirken, indem sie beispielsweise mit ihrer Hand die Bewegung eines digitalen Gabelstaplers blockieren. Während sich der Gabelstapler virtuell durch die digitalisierte Fabrikhalle bewegt, analysiert das Steuerungs-System, wo und wann es zu einer Kollision zwischen ihm und dem realen Roboter kommen könnte. Erkennt das Steuerungs-System das neue Hindernis, stoppt der Gabelstapler und ändert sein Verhalten.

„Wir nennen dies ‚Cyber-physische Äquivalenz‘“, sagt Professor André Stork vom Fraunhofer IGD. Bislang nutzen Betriebe seiner Ansicht nach lediglich den umgekehrten Weg: Sie planen die Produktionsstraßen im Computer und übertragen sie ins Reale. Der Weg zurück wird noch nicht oder nur selten beschritten. Die sich daraus ergebenden Möglichkeiten sind enorm. „Fehler und auch mögliche Unfälle können frühzeitig erkannt oder zumindest schneller als heute analysiert werden“, erklärt Dr. Jörn Kohlhammer vom Fraunhofer IGD.

Die Fraunhofer IGD Mitarbeiter entwickeln dafür Lösungen, um die bei der Produktion anfallenden Datenmengen schnell zu analysieren. Diese Daten machen sie für den Menschen über Darstellungen einfach erfassbar. Leicht verständliche Grafiken zeigen dann zum Beispiel, welche Konfigurationen der Produktionsstraße zu Unfällen führen könnten.

Dadurch wird die Informationsgewinnung aus dem Big Data Topf qualitativ höher als heute. 

Um das Daten Management gekonnt zu meistern, müssen die einzelnen Aktivitätenbündel der Big Data Management Landkarte 

Datenerhebung – Digitalisierung

Datenintegration – Daten-Qualitätsmanagement

Datenaggregation – Datenmarktplatz

Datenprodukte – Datenservices – »Produktisierung«

Datenvisualisierung – Dateninterpretation 

nicht nur mit neuen Inhalten, sondern auch mit neuen Techniken, Methoden und auch Tools wie Hadoop belegt werden.

Für viele Data Management Experten hat sich Hadoop als De-facto-Standard zur Analyse von großen und sehr großen Datenmengen etabliert. Hadoop stellt nicht nur Entwickler jedoch vor einige Herausforderungen:

Zum einen wird mit Rohdaten auf fundamental andere Weise umgegangen als es bisher üblich war.

Zum anderen erfordert die Entwicklung von MapReduce-Programmen ein Umdenken im Vergleich zu funktionaler oder objektorientierter Programmierung.

Darüber hinaus ist um das ursprünglich einfache MapReduce-Tool Hadoop herum mittlerweile ein breitgefächerte Landschaft von Technologien für die unterschiedlichsten Anwendungsfälle entstanden: von der verteilten Datenspeicherung über die Exploration und Analyse bis hin zur automatischen Klassifizierung und Vorhersage. 

Wir gehen davon aus, dass die Hadoop Landschaft durch Industrie 4.0 Anwendungsfälle sukzessive erweitert wird.

(Die gesamte Fraunhofer IGD Pressemeldung: 08-2014 finden Sie auf Virtuelle und Digitale Fabrik verschmelzen)

Headline here