Die neue Normalität und wie wir uns daran anpassen

Die Coronavirus-Pandemie stellt das, was bisher als normaler Geschäftsbetrieb angesehen werden konnte, in noch nie dagewesenem Ausmaß völlig auf den Kopf. Angefangen beim Betrieb mit reduzierter Belegschaft über die Umsetzung von Abstandsregeln und Richtlinien für die Arbeit von zuhause aus hat die Pandemie einen neuen Standard für das geschaffen, was als normale Geschäftspraxis angesehen werden kann.

Niemand kann vorhersagen, wie lange die durch diese weltweite Pandemie ausgelösten Verwerfungen andauern werden oder in welcher Form eine zukünftige Erholung ablaufen könnte. Zahlreiche Unternehmen wurden durch die Pandemie gezwungen, sich viel schneller an eine neue digitale Realität anzupassen, als sie dies möglicherweise geplant hatten, und es gibt keine Garantie dafür, dass nach ihrem Ende alles wieder so läuft wie vorher. So ist beispielsweise allgemein anerkannt, dass die explosionsartige Zunahme des Onlinehandels in China eine direkte Folge der SARS-Epidemie von 2003 war. Das wurde in China also zur neuen Normalität.

Eine Möglichkeit für Hersteller, sich an die neue Normalität des Jahres 2020 anzupassen, ist durch die Investition in Technologien der künstlichen Intelligenz (KI) wie beispielsweise Big Data, die sie dabei unterstützen, jene Fehlkapazitäten auszugleichen und Probleme zu beheben, die durch die Auswirkungen der Pandemie auf die Arbeitskräfte verursacht wurden. Doch wann immer es um Big Data in der Fertigung geht, tauchen die selben zwei Fragen wieder und wieder auf. Erstens, was ist Big Data? Und zweitens, wie können Hersteller von Big Data profitieren? Diese Fragen lassen sich einfach beantworten,wenn wir uns die „Drei V“ von Big Data – Volume, Velocity und Variety – vor Augen halten.

Die drei V

Das erste V steht für „Volumen“ und bezieht sich auf die Menge der in Big Data-Systemen verarbeiteten Daten. Es ist wenig überraschend, dass es bei Big Data um große Datenmengen geht, die enorme Datensätze, oft im Petabyte- oder Zetabyte-Bereich, angewiesen sind. Damit wir uns auch eine korrekte Vorstellung davon machen, worüber wir hier sprechen: Ein Petabyte sind eine Million Gigabytes, was der kombinierten Speicherkapazität von 15.625 iPhone 11s entspricht. Solche Größenordnungen erscheinen uns zunächst einmal unbegreiflich, doch die Zusammenstellung derart enormer Datensätze ist letztendlich nicht so schwierig, wie dies zunächst den Anschein hat.

Die zunehmende Bedeutung intelligenter Technologie wie zum Beispiel smarter Sensoren in der Werkshalle ermöglicht es Herstellern heute, große Datenmengen von beinahe jeder Art von Maschine zu sammeln. Variablen wie Temperatur, Feuchtigkeit, Druck, Vibration und Änderungen im Betriebsverhalten können genutzt werden, um einzelne Komponenten wie Motoren zu überwachen und Ausrüstungsdefekte vorherzusagen. Werkzeuge zur Datenanalyse können anhand solcher Informationen vorhersagen, wann eine Komponente wahrscheinlich ausfallen wird, was bedeutet, dass Instandhaltungsmaßnahmen früh genug geplant und teure ungeplante Stillstandszeiten vermieden werden können. 

Das zweite V steht für „Velocity“ und bezieht sich ebenso auf die Geschwindigkeit, mit der Daten generiert werden, wie auch auf die Geschwindigkeit, mit der diese Daten zu Nutzungszwecken verarbeitet werden können. So kommen zum Beispiel in der modernen, intelligenten Smart-Sensor-Technologie kontaktlose Sensoren mit Hochgeschwindigkeitslasern zur Anwendung, die in der Lage sind, Probleme aufzuspüren, die herkömmlichen Beschleunigungsmessern entgehen. Mit solchen Lasersensoren, die nicht nur mit hoher Geschwindigkeit dieselben Parameter messen können wie Beschleunigungsmesser, sondern mittels domänenübergreifender oder modaler Analysen spezifische Eigenschaften überwachen können, verbessern sich die Möglichkeiten der Zustandsüberwachung enorm.

Das letzte V steht für „Variety“ und bezieht sich auf die Vielfalt der unterschiedlichen Arten von Daten, die in Big Data-Prozessen genutzt werden. Ausrüstungsstatus, Zustand von Bauteilen, Inventar und Produktlebensdauer sind nur ein paar der Variablen, aus denen das komplexe Datennetz besteht, welches von Herstellern gemanagt werden muss. Das Management dieser Daten erfordert mehrere integrierte Systeme, die einen umfassenden Blick auf die gesamte Anlage erst ermöglichen. So kann beispielsweise anhand der Daten aus der Zustandsüberwachung von Bauteilen festgestellt werden, dass eine Maschine Anzeichen für einen Defekt zeigt, und dies kann automatisch mit den Inventardaten des Standortes abgeglichen werden, um zu überprüfen, ob ein Ersatzteil verfügbar ist.

Share