Podcast

Folge #40Folge #40Folge #40Wie ein Schweizer Taschenmesser: Ein digitaler Datensammler als Multitool für den Shopfloor

„Der Wertschöpfungsanteil von Software im heutigen Maschinenbau ist nicht zu unterschätzen.“ – das verdeutlicht der Use Case der 40. Folge des IIoT Use Case Podcasts einmal mehr. Wolfram Schäfer, Gründer und Geschäftsführer der iT Engineering Software Innovations GmbH, hat mit Stephan Lausterer (Head of R&D System Engineering, Manz AG) einen konkreten Anwender seines digitalen Schweizer Taschenmessers für den Shopfloor mitgebracht und stellt die konkrete Wertschöpfung aus der Praxis vor. 

 

Use Cases in diesem Podcast

Zusammenfassung der Podcastfolge

„Collect“, „Explore“ und „Improve“ – nach diesem dreistufigen Prinzip arbeiten die IoT-Bausteine, die IIoT Building Blocks, von iT Engineering Software Innovations (iTE SI). In dieser Podcastfolge wird die Anwendung ihres Data Collectors anhand des Praxisbeispiels von Manz aufgezeigt. Schritt 1: Datensammlung – auch bei heterogener Anlagenlandschaft. Schritt 2: Visualisierung und erste Ableitungen. Schritt 3: Lernen aus den Daten und Mehrwerterzeugung durch Optimierungen. 

 

Die Nutzer der Lösung von iTE SI sind branchenunabhängig über den Maschinenbau verteilt. Die Softwarefirma ist seit über 20 Jahren an der Schnittstelle zwischen Maschinen und IT unterwegs und begleitet die digitale Transformation des Maschinenbaus und der produzierenden Industrie auf dem Weg zur Industrie 4.0 mit ihren Lösungen und Produkten im Fertigungsumfeld. So auch den Weg des schwäbischen Maschinenbauers Manz bei der Inbetriebnahme von Sondermaschinen. Manz ist im Bereich Lithium-Ionen-Batterietechnologie, Solar- und Photovoltaik-Zellen, Nass-Chemie, Laserbearbeitung, Inspektionssysteme sowie der Herstellung diverser elektronischer Bauteile unterwegs. iTE SI wurde mit dem Ziel ins Boot geholt, die Dauer der Sondermaschinenentwicklung bis hin zum finalen Einsatz auf dem Shopfloor zu verkürzen und dort angekommen, Mehrwerte aus Daten zu generieren.

 

Die Digitalisierungslösung sammelt minimalinvasiv Rohdaten ein, ohne auf die Steuerungen selbst einzuwirken. Der Datensammler arbeitet mit verschiedenen Schnittstellen und kann somit auf unterschiedlichsten Devices und Maschinensteuerungen, wie z. B. SPS- oder NC-Steuerungen, zum Einsatz kommen. Auf einem Edge Device werden die Daten zunächst vorverarbeitet und gelangen danach bereinigt und „harmonisiert“ in die Cloud – auf diese Weise wird ein rundum sauberes Datenbild erzeugt. Im Ergebnis sind die Daten auf einem Dashboard einer App visualisiert einsehbar. Der besprochenen Use Case handelt von hochfrequenten Daten sowie Bildverarbeitungsdaten aus Achspositionen von Laserrobotern – Antriebsdaten in Steuerungsechtzeit oder Laserdaten wie der Pulsdauer. Sie ermöglichen unter anderem eine gezielte Fehleranalyse, vorausschauende Fehlervermeidung und Taktzeitoptimierungen.

 

Was die Daten noch wertvoller macht: Sie werden mit bereits vorhandenem Prozesswissen von Kunde und Hersteller angereichert. „Am Ende geht es darum, dass man das Wissen aller zusammenbringt“, wird in dieser Podcastfolge zusammengefasst. 

Podcast Interview

Hallo Wolfram und hallo Stephan, herzlich willkommen zum IIoT Use Case Podcast. Ich freue mich sehr, dass ihr mit dabei seid. Schön, dass ihr euch die Zeit genommen habt. Ich würde direkt mit einer Vorstellung starten. Wolfram, magst du dich kurz vorstellen und ein bisschen was zum Unternehmen sagen?

Wolfram

Grüß Gott in die Runde. Mein Name ist Wolfram Schäfer. Ich bin Gründer und Geschäftsführer der Firma iT Engineering Software Innovations GmbH. Wir sind ein Software-Dienstleistungsunternehmen, wir entwickeln Software für Maschinenbau und für die industrielle Produktion und Produktionstechnik. Unsere Kunden sind branchenunabhängig über den Maschinenbau verteilt. Das sind Produkte, die wir für unsere Kunden dort entwickeln oder Lösungen im Fertigungsumfeld. Insgesamt begleiten wir diesen Bereich seit über 20 Jahren. Seit den letzten fünf bis sechs Jahren nehmen wir natürlich das Thema Digitalisierung in der Industrie, im Maschinenbau ganz stark mit – mit neuen Technologien, neuen Lösungsansätzen und bieten dort wie gesagt entsprechende Produkte und Lösungen an.

 
Vielen Dank. Schön, dass du auch euren Kunden, die Firma Manz, mitgebracht hast. Hallo Stephan, auch in deine Richtung. Ich würde mich freuen, wenn du dich der Vorstellungsrunde kurz anschließt und vielleicht auch das Kerngeschäft von Manz ein bisschen vorstellst, sodass wir dann auch inhaltlich einsteigen können.
Stephan
Ja, gern. Hallo, auch von mir in die Runde. Mein Name ist Stephan Lausterer. Ich bin seit zwölf Jahren bei der Firma Manz und dort verantwortlich im Bereich Basis-Technologie für die Softwareentwicklung. Das betrifft sowohl Bibliotheken für unsere Steuerungen, für alle unsere Maschinen als auch das User Interface HMI, die Qualitätssicherung für die Softwareprodukte, die wir erstellen, und die Elektrokonstruktionen. Ein großes Thema in den letzten Jahren ist das Thema Industrie 4.0, wo wir unser smartPRODUCTIONKIT entwickelt haben. Manz ist ein schwäbischer Maschinenbauer. Wir sind ein Hightech-Unternehmen und haben uns auf Technologien im Bereich der Herstellung von Lithium-Ionen-Batterien, elektronischen Bauteilen als auch Solarzellen und Photovoltaik-Zellen spezialisiert. Die Kompetenz in dem Bereich ist der Bereich Nass-Chemie, die Laserbearbeitung Inspektionssysteme, also optische Inspektionssysteme vor allem, und jetzt neu hinzugekommen auch der Bereich Industrie 4.0 mit den dort entwickelten Softwareprodukte.
 
Auf das Thema Lithium-Ionen-Batterien, das ja ein sehr aktuelles ist, würde ich später gern noch mal eingehen. Um erstmal in das Thema einzusteigen, Wolfram, die Frage an dich: Welche Relevanz nimmt das Thema Digitalisierung generell für eure Kunden ein bzw. siehst du etwas am Markt, das immer mehr aufkommt? Was ist deine Einschätzung?
Wolfram
Wie gesagt, sind wir seit über 20 Jahren an der Schnittstelle zwischen Maschinen und IT unterwegs und es klingt ein bisschen abgedroschen, aber Daten sind das Rohöl der Zukunft oder der digitalen Transformation in der Industrie. Mit der Erfahrung, die wir dort haben, ist es die Grundlage, um jegliche Digitalisierungsbemühungen zu machen, die Interoperabilität mit den Maschinen herzustellen – also bidirektionale, mit Maschinen, mit allem was sich im Shopfloor bewegt, kommunizieren zu können, um in diese Richtung neue Lösungen zusammen zu bringen. Stichworte sind dabei zum Beispiel Condition Monitoring, Predictive Maintenance, digitaler Zwilling, Track & Trace Applikationen bis hin zu OEE-Optimierungen. Für uns, in unserem Geschäft, geht es immer mehr in Richtung Anbieter. Das heißt, unsere Kunden sind im Bereich Maschinenbau, für die wir dann Produkte entwickeln, die diese für ihre Kunden wiederum einsetzen. Oder auf der anderen Seite realisieren wir auf dem Shopfloor Digitalisierungslösungen für die Anwender selbst, die Maschinen nutzen und etwas produzieren. Das sind die vorher genannten Beispiele und darüber hinaus auch die Anbindung an ERP-Systeme, Kommunikation mit EMS-Systemen und so weiter. Und dort stellt man in den letzten Jahren an breiter Front fest – nachdem das vielleicht mit dem Aufkommen von Industrie 4.0 vor zehn Jahren eher so ein Marketing-Hype war und alle vorsichtig waren – dass langsam Lösungsideen gesehen werden, die einfach auch Mehrwerte versprechen, dass dort ein bisschen mehr Licht ins Dunkel kommt oder sich der Nebel lichtet, und man sieht, wo kann man eigentlich mit neuen Geschäftsmodellen ansetzen und wo kann man vor allem Nutzen stiften. Das Thema wird von Jahr zu Jahr einfach relevanter, würde ich so aus meiner Erfahrung sagen.
 
Stephan, noch mal in deine Richtung: Du hattest gesagt, ihr seid erstmal klassischer Maschinenbauer, auch im Bereich Lithium-Ionen-Batterietechnologie. Vom Kernportfolio her seid ihr jetzt erstmal nicht klassischerweise in Richtung Digitalisierung unterwegs. Warum seid ihr diesen Weg gegangen? Was waren die Antreiber, die ihr am Markt für euch gesehen habt?
Stephan
Vielleicht sind wir nicht klassisch in dem Bereich unterwegs, aber der Wertschöpfungsanteil der Software im heutigen Maschinenbau ist glaube ich nicht zu unterschätzen. Seit fünf oder zehn Jahren wächst er stetig. Und da kehren natürlich die Themen Digitalisierung und Big Data immer mehr ein. Was uns speziell vor vier Jahren dazu gebracht hat, ist der Tatsache geschuldet, dass wir auch viele Sondermaschinen bauen – also keine Produkte, keine Maschinen von der Stange oder die man aus dem Katalog bestellen kann. Hier ist der Weg von der Entwicklung der Maschine bis dahin, dass die Maschine beim Kunden steht, teilweise relativ lang. Da haben wir nach Lösungsmöglichkeiten gesucht, wie wir diesen Weg verkürzen können. Eine Idee war, mit Digitalisierungslösungen und der Visualisierung und Analyse von Daten dem Inbetriebnehmer und dann letztendlich dem Kunden die Möglichkeit zu geben, die Kennwerte, Kennzahlen, Performance,-Daten, KPIs der Maschine, die er bekommt, auf einen Blick transparent zu sehen.
 
Bevor ich jetzt zu dem Inbetriebnahmeprozess komme, noch mal eine ganz kurze Zwischenfrage. Du hattest von Lithium-Ionen-Batterietechnologie und Sondermaschinen gesprochen.  Wie sehen denn diese Maschinen heute eigentlich aus? Wie muss man sich das vorstellen? Um für die Hörer ein Bild zu zeichen, die so etwas vielleicht noch nie gesehen haben.
Stephan
Die Maschine sieht von außen aus wie eine Fräs-Drehmaschine, wie man sie vom Katalog her kennt. Da ist ein Housing, ein Gehäuse außen rum, und das, was man als besonders an der Maschine bezeichnen kann bei uns, sind die Prozesse, die innen ablaufen, hinter den Türen sozusagen. Wie ich eingangs schon erwähnt habe, sind unsere großen Technologiefelder, die Lasertechnologie, die Bildverarbeitung und die Prozesse, die benötigt werden, um Lithium-Ionen-Batterien auf unseren Maschinen herzustellen. Das sind Rolle-zu-Rolle-Applikationen, auf denen die Anode-, Kathode- und Separatorfolien verarbeitet werden können, Schneid-, Stanz-, Schweißprozesse – ein vielfältiges Tätigkeitsfeld, das letztendlich dazu führt, dass man im Auto mit Strom fahren kann.
 
Ich wollte mir das gerade noch mal gedanklich vorstellen. Im Endeffekt werden die Lithium-Ionen-Batterien in euren Maschinen gefertigt, richtig? Von außen sieht das aus wie eine Fräs-Drehmaschine, das ist aber ein komplexer Prozess, der wahrscheinlich auch kundenspezifisch ist, deswegen auch Sondermaschine.
Stephan
Genau und teilweise sind das einzelne Maschinen, teilweise werden die dann zu Linien verkettet, um den Produktionsprozess abzubilden.
 
Jetzt hattest du gerade gesagt, es geht um die Inbetriebnahme. Wenn ich mir so einen Inbetriebnahmeprozess vorstelle, dann muss die Maschine ja irgendwo aufgebaut werden – Planung, Aufbau vor Ort, da steckt ein komplexer Prozess dahinter. Wie funktioniert so ein Inbetriebnahmeprozess heute? Hast du da mal ein Beispiel? Vielleicht auch von einem eurer Kunden, dass man den Prozess dahinter ein bisschen versteht.
Stephan
Vereinfacht ausgedrückt, gibt es natürlich eine Vereinbarung mit dem Kunden. Es gibt eine Spezifikation, es werden Abnahmekriterien gemeinsam mit dem Kunden festgelegt, die am Ende des Tages erfüllt sein müssen. Jetzt wird eine Maschine konstruiert – mechanisch, elektrisch und mit der Software. Natürlich gibt’s hier einen Fundus an Basisdaten und auch Modulen, aber der Teufel steckt da, wie so oft, im Detail. Die Maschine wird über Operations, also über den ganzen Beschaffungsprozess, hin zur Montage aufgebaut. Wenn dann alles zusammengebaut ist, hauptsächlich die Mechanik und die Elektrik, dann kann man auch irgendwann den Hauptschalter umdrehen, und dann kommen die Inbetriebnahme- und Software-Entwickler an die Maschine und hauchen ihr Leben ein. Und das nicht nur, um die Maschine bewegen zu können, sondern auch um die Prozesse, von denen ich vorher gesprochen haben, in Betrieb zu nehmen. Diese sind teilweise stark vom Material abhängig. Das heißt, wir kriegen vom Kunden Material zur Verfügung stellt, das auf der Maschine prozessiert werden muss, und mit diesem Material müssen Tests gemacht werden, um die zuvor erwähnten Qualitätskriterien oder Performance-Kriterien zu erfüllen. Genau diese Daten wollen wir so früh und so präzise wie möglich darstellen und analysieren.
 
Wenn du jetzt von Material sprichst – ich weiß nicht, ob du so viel darüber erzählen darfst – aber was für Material ist das? Ist das klassisch das Gehäuse von so einer Lithium-Ionen-Batterie oder ist das die Befüllung mit bestimmter Säure oder wie muss man sich das vorstellen?
Stephan
Das fängt ganz vorne an der Kathode, Anode, am Separator an. Das sind Folienmaterialien, die beschichtet sind. Basismaterial ist normalerweise Aluminium und Kupfer, das entsprechend beschichtet ist. Das wird dann prozessiert, entweder geschnitten, gestanzt, bis hin zu dem Housing dieser Zelle. Das kann eine sogenannte Pouch-Zelle sein. Das ist quasi in einer Folie eingewickelt, die relativ flexibel ist. Oder das kommt in ein Gehäuse rein, in eine Can, flapsig gesagt eine Dose, die dann auch versiegelt wird. Irgendwann wird der Elektrolyt zugeführt und das dann wieder versiegelt. Dann kann man elektrische Tests machen und die Batterie starten. Also letztendlich geht es um die ganze Kette von der der Anoden-, Kathoden-, Elektrodenfolie bis hin zum fertigen Batterie-Pack, was jetzt die Lithium-Ionen-Batterien an sich angeht. Aber wir machen nicht nur die Batterietechnologie, sondern auch Elektronik-Komponenten drum herum, die Fertigung der Elektronik-Komponenten, die z. B. zum Betrieb eines Batterie-Packs in einem Automobil oder einem Smartphone notwendig sind.
 
Was sind denn hier so klassische Herausforderungen, auf die ihr stoßt bzw. die euch die Kunden stellen? Kannst du uns mal ein bisschen zu den tagtäglichen Herausforderungen abholen?
Stephan
Herausforderung ist, dass die Prozesse entsprechend qualitativ hochwertig laufen und auch den Qualitätskriterien des Kunden genügen muss. Dort sind Toleranzen angegeben oder auch Geschwindigkeiten, die zu erfüllen sind – beispielsweise die Anzahl der Folien pro Stunde, die zu fertigen sind, damit der Durchsatz erreicht ist und die Maschine sich in der entsprechenden Zeit auch amortisiert, die der Kunde sich vorstellt. Das ist das eine Thema. Außerdem geht es um die Fehler. Wie so oft, ist das straight forward relativ schnell gemacht, aber dann die Fehlerquelle abzufangen, das Fehler-Handling, zu wissen oder so zu analysieren, woher kommen die Fehler, und die dann abzustellen, ist ein weiteres Thema. Und da hilft letztendlich auch die Erfassung von Daten, die Analyse von Daten und in letzter Konsequenz – wo wir dann natürlich auch hinwollen – die Arbeit mit den Daten. Das heißt, auf Basis der ermittelten Daten Optimierungen zu machen oder vielleicht sogar auch Fehlerfälle zu vermeiden, damit während der Produktion ständig hochwertige Produkte von unseren Maschinen kommen können.
 
Jetzt spreche ich im Podcast natürlich viel über Daten. Ich weiß nicht, ob du jetzt auf einen bestimmten Prozess eingehen kannst, aber vielleicht kannst du uns ein bisschen abholen, welche Kennzahlen in der Hardware, die ihr verbaut, am Ende für euch oder euren Kunden interessant sind?
Stephan
Generell arbeiten wir viel mit Achsen und mit Antrieben. Da sind natürlich die Positionen wichtig, weil man genau dann die Teile entsprechend produzieren muss. Das heißt also die Achsposition, wenn es gilt, einen Laser zu positionieren oder die Folien über einen Roboter in eine bestimmte Stelle zu transportieren, dann muss die wieder genau abgelegt werden. Das sind sowohl Daten, die aus den Antrieben kommen als auch Daten aus der Bildverarbeitung. Wenn inspiziert wird, wie ein Objekt liegt oder wenn so eine Schweißnaht z. B. optisch inspiziert wird, ob man daraus ableiten kann, wie die Qualität dieser Schweißnaht ist, ob das ein Gut- oder Schlechtteil ist. Dann sind es Dinge wie die Laserleistung, die Pulsdauer eines Lasers oder elektrische Messwerte, wie ein Ohm’scher Widerstand, oder einfach eine elektrische Durchgangsprüfung, ob ein Kurzschluss da ist oder ob alles so ist, wie es sein soll.
 
Wolfram, jetzt die Frage an dich. Wie gesagt, sprechen wir über verschiedenste Daten. Generell steckt da eine ganze Menge Intelligenz ja schon in der Maschine. Aber ich muss ja nun auch Schwellenwerte festlegen, um dem Kunden dann hinterher einen Mehrwert zu schaffen – Fehler oder Stillstände zu verhindern beispielsweise. Wie mache ich das genau? Wie bringe ich dieses Wissen, das ich vielleicht auch schon habe oder dass die Mitarbeiter haben, ins Digitale?
Wolfram
Im ersten Schritt geht’s eigentlich noch nicht darum, gleich die große Keule zu nehmen und in Richtung Machine Learning zu denken, sondern einfach die Daten aus allen Prozessen auf einer zeitlichen Basis beispielsweise zusammenzubringen. Wir hatten vorher schon in den Ausführungen von Stephan gehört, dass es in diesem konkreten Fall um viele Maschinen, viele Prozesse, mehrere Linien geht, die parallel produzieren. Da entstehen ganz viele Daten. Um am Ende eine Aussage treffen zu können, müssen sie erstmal alle auf eine gleiche zeitliche Basis gebracht und harmonisiert werden. Teilweise sind die Daten hochfrequent. Und um Ende das alles zusammenzubringen, brauche ich erstmal Werkzeuge, Technologien, um die gemeinsam abspeichern zu können. Danach geht es darum, sie analysieren zu können, denn wir wollen ja Zusammenhänge in diesen Daten finden, um daraus vielleicht Verbesserungen oder Gründe für Fehler finden zu können. Das heißt, es ist erstmal ein Analyseprozess, der das Erfahrungswissen von den Prozessverantwortlichen, von den Softwareentwicklern, von den Steuerungstechnikern usw. zusammenbringen muss, um die gemeinsame Basis zu haben. Dafür braucht es auch wieder Werkzeuge, die vielleicht über eine normale Excel-Grafik hinausgehen, wo wir komplexere Zusammenhänge darstellen können, um in die Richtung entwickeln zu können. Erst im nächsten Schritt können wir dann vielleicht Vorhersagen trainieren. Da wären wir dann zukünftig beim KI-Modell oder Machine Learning Modell, mit dem wir dann tatsächlich auch Verbesserungen erzielen können. Und wie bringe ich das Ganze ins Digitale? Ich brauche natürlich das Werkzeug, um diese Konnektivität zur Maschine herzustellen. Ich brauche eine Datenbank, auf der ich das abspeichern kann – sei es eine Edge Cloud oder ein Edge Device – um es an der Stelle auswerten zu können. Dann ist es einfach auch ein Engineering-Prozess mit diesen Daten zu arbeiten, also erstmal ein Hilfsmittel, ein Werkzeug, das ich brauche, um Prozesse analysieren zu können.
 
Stephan
Ganz wichtig ist in dem Zusammenhang auch, sich nicht nur auf die Daten einer Maschine zu konzentrieren und die dann dort zu belassen, sondern wenn man Effekte feststellt, dann tritt es oft auf, dass diese in Folgeprozessen relevant sind. Ein Beispiel: Eine Schweißung an einer Maschine war nicht erfolgreich. Das wird nicht richtig erkannt und erst in einem Folgeprozess, zwei, drei Maschinen später, entdeckt man dann, dass fünf Minuten vorher etwas schief lief. Auch das ist technisch relevant zu erkennen und zu verarbeiten.
 
Wolfram
Oder selbst, wenn das Ergebnis gerade noch als innerhalb der Toleranz erkannt wird, könnte es trotzdem in einem weiteren, späteren Schritt zu größeren Abweichungen kommen, deshalb diese Harmonisierung über alle Prozessschritte hinweg.
 
Stephan
Genau, oder wenn man dort an mechanische Belastungen denkt, die sich im Laufe des weiteren Fertigungsprozesses ergeben können, wenn es beispielsweise grenzwertige Prozessergebnisse sind.
 
Im Endeffekt ist es ja auch so, dass man solches Prozesswissen, das der Kunde ja auch hat, mit dem Hersteller- und Maschinenwissen irgendwo synchronisiert, um diese Effekte zu heben, oder?
Wolfram
Ich glaube, darum geht es eigentlich am Ende, dass man das Wissen aller zusammenbringt. Einerseits die Daten mit dazu, aber dann das Prozesswissen vom Kunden, das Prozesswissen in dem Fall von Manz, die sich eingehend mit Prozessen beschäftigen, dass die zusammenkommen und eine gemeinsame Diskussionsbasis haben, auf der sie Prozesse, Maschinen, Produkte dann weiterentwickeln können. Das ist an der Stelle alles ein sehr, sehr hoch dynamischer Prozess. Die Produkte, die gefertigt werden, sind vielleicht manchmal noch gar nicht fertig designt, wenn schon die Maschine konstruiert wird, das entsteht quasi alles simultan.
 
Ich glaube, da ist eine Menge Potenzial, das man in diesen einzelnen Prozessen heben kann – sei es die Lasurleistung, die Fräsdaten, die Bildverarbeitung der Schweißnaht etc. Wolfram, du hattest gesagt, es geht auch um das Thema Connectivity, um das Thema Edge – jetzt mal als Buzzword gesagt. Ganz konkret gesprochen: Wie kriege ich die Daten aus der Infrastruktur beim Kunden an die Stelle, wo das jemand auswerten kann und damit den Mehrwert heben kann?
Wolfram
Genau. Also aus unserer Sicht geht’s nicht darum, in erster Linie zu sagen, wir müssen die Daten in die Cloud pumpen. Es geht um viele Daten, viele Maschinen und wie vorher schon mal angeklungen ist, einfach auch um hochfrequente Daten. Damit meinen wir oftmals Antriebsdaten in Steuerungsechtzeit. Da bewegen wir uns im Bereich 4 Millisekunden oder noch schneller, noch hochfrequenter oder Beschleunigungsdaten von Beschleunigungssensoren. Da macht es aus unserer Sicht nicht zwingend Sinn, die direkt in die Cloud zu pumpen, sondern das sind erst mal Rohdaten, die wir auf so einem Edge Device verarbeiten können und die Informationen dann direkt dort verarbeiten oder im Anschluss in die Cloud speichern. Das ist eigentlich Frage der IT-Technologie her: Wie kommen wir durch das Netzwerk in die Cloud und wollen das auswerten? Manchmal sagen wir ein Buzzwort wie Edge Cloud und meinen damit irgendwie was dazwischen. Dafür haben wir den sogenannten Collector entwickelt. Es ist ein Service in dem Sinne, der ein paar Anforderungen zu erfüllen hat. Er versucht minimal invasiv, die Daten von den Steuerungen abzugreifen. Wir dürfen z. B. keine Einflüsse auf die Auslastung der Steuerung selbst damit erheben. Das sind manchmal so Detailprobleme, mit denen man dort konfrontiert wird. Das heißt, es ist ein kleiner, schlanker, schmaler Service, der auf jeder Maschinensteuerung laufen kann, der aber vielleicht auch mal auf einem Bildverarbeitungsrechner laufen kann, weil da eine entsprechende OPC UA-Schnittstelle mitgeboten wird oder auf dem Sensor Device. Wir haben nicht nur Maschinensteuerungen dort in diesem in diesem Umfeld, SPS-Steuerungen oder NC-Steuerungen, sondern viele Devices, die Daten generieren. Dafür brauchen wir diesen Service. Die vielen hochfrequenten Maschinen müssen wir alle administrieren. Das heißt, es gibt eine zweite Komponente dazu, die eigentlich über ein Netzwerk bedienbar ist, also eine browserbasierte App, mit der ich alle diese Services konfigurieren kann. Natürlich haben viele Maschinen ähnliche Daten, die wir erheben wollen, aber dann doch auch wieder spezielle. Das heißt, manche Dinge wollen wir kopieren, weiter übernehmen und manchmal wollen wir etwas speziell einstellen. Deshalb hat man das in zwei Teile aufgeteilt. Wir können es quasi aus dem Büro, wenn man so will oder übers Netzwerk einfach administrieren, dass wir keine Turnschuh Administration in der Fertigung haben. Dann verteilen wir diese Services und sammeln in einer oder mehreren zentralen Datenbanken zunächst Zeitreihen-Daten, die wir harmonisieren können, auf die wir Trigger-Punkte legen können, die wir verrechnen können. Gehen wir mal davon aus, wir haben vielleicht mehrere unterschiedliche Hersteller in einem Shopfloor – der eine drückt Temperaturen in Grad Celsius aus, der andere in Grad Fahrenheit. Da ist es geboten zu, sagen: An der Quelle, wo wir nachher diese Daten auswerten wollen, haben wir alles in Grad Celsius z. B. stehen, damit die Prozessleute, die es nachher anschauen sollen, hier keine falschen Schlüsse ziehen. Das verstehen wir unter harmonisieren. Das sind Funktionalitäten, die wir mit diesem Collector und der Collector App dort entsprechend unterstützen können. Wichtig sind diese hochfrequenten Geschichten, Hardwareunabhängigkeit zu unterstützen, also über Steuerungsgrenzen hinweg. Und wenn man einen Schritt weiterdenkt: Wir reden hier gerade über eine Greenfield-Lösung – das heißt alles neue Maschinen, moderne Schnittstellen. Aber auf der anderen Seite haben wir in anderen Use Cases auch mal eine Brownfield-Situation und müssen dort mit verschiedenen Schnittstellen zum Feld hin, zum Schopfloor hin, kommunizieren können. Das ist dann eine relativ heterogene Geschichte. So entsteht eine verteilte Applikation, die an einem zentralen Ort administriert werden kann. Und von dort redet man dann über das Weiterleiten von Informationen an die Cloud, diese ganzen Dashboard-Themen, die man dann darauf einbinden kann.
 
Stimmt, viele haben eine heterogene Systemlandschaft. Beim Brownfield wird es dann ein bisschen komplexer und wenn ich Möglichkeit habe, Greenfield zu planen, vielleicht ein wenig einfacher. Die Frage, die sich mir so ein bisschen stellt: Jetzt habe ich auf der einen Seite Manz – mit dem wahnsinnig spannenden Prozesswissen zu den Maschinen, zu den Sondermaschinen, vielleicht auch zu den einzelnen Prozessen, wie die dann auch beim Kunden laufen – und andererseits zu euch, die das Wissen ebenfalls mitbringen. Wie kriege ich dieses jetzt in Echtzeit weiterverarbeitet? Wer übernimmt hier welchen Part, wo ist sozusagen diese Übergabestelle, diese Schnittstelle?
Wolfram
Wir haben die Lösung so entwickelt, dass wir zunächst diesen Collector, diese App, diese Software, unseren Kunden anbieten und wir nennen das Ganze IIoT Building Blocks – „Collect“, „Explore“, „Improve“. Das sind drei Schritte. Explore und Improve sind eigentlich offene Themen, bei denen wir gern auch mit Open Source Technologien unterstützen, die wir evaluiert haben. Aber dort ist der Übergang fließend. Wir wollen unsere Kunden an der Stelle bewusst dahingehend unterstützen, dass genau eigenes Wissen, eigene Kapazität eingebracht werden kann, denn schlussendlich haben sie das Prozesswissen und sie müssen da mitarbeiten können. Es war genauso ein Ziel dieser Entwicklung, eine Naturlandschaft sozusagen anbieten zu können, die es ermöglicht, nicht vorgefertigte Dashboard zu haben und jede Änderung aufwendig nach zu implementieren, sondern eigentlich schnell die Möglichkeit zu bieten und zu sagen: Okay, hier kann ein Prozessverantwortlicher, der auch IT-Kenntnisse hat, sich eigene Auswertungen, eigene Dashboards erstellen, um seine Arbeit damit leichter zu machen. Wir wollen gar nicht dahin gehen und sagen, jede Änderung, jede Ideeaufzeichnung muss von einem IT-Spezialisten gemacht werden, sondern es soll auf einer ganz einfachen Ebene dargeboten werden, dass man selbst mit Hand anlegen und seine Herausforderungen in einem agilen Umfeld lösen kann. Es ist sozusagen ein fließender Übergang.
 
Stephan, da vielleicht noch mal an dich die Frage: Ihr nehmt quasi diese Daten aus Steuerungen, aus Sensoren eurer Maschinen auf. Dafür nutzt ihr zum Beispiel diesen Collector. Aber vorher bringt ihr ja euer Prozesswissen ein, wo ihr sozusagen auf der Edge die Daten vorverarbeitet, oder?
Stephan
Wir nutzen den Datencollector von iT Engineering, weil es uns wichtig war, ein Produkt an der Hand zu haben, das in der Lage ist, mit hoher Taktrate Daten zu locken und das auch ausfallsicher. Also wenn mal eine Verbindung zu dem Edge Device oder in die Cloud abbricht, dass die Daten trotzdem nicht verloren sind. Da ist dann auch noch ein Mechanismus drin, der das ermöglicht. Es ist wichtig, dass man einfach ein rundum sauberes Datenbild hat. Der nächste Punkt ist dann, dass die User, die Prozessentwickler, die Prozessingenieure und die Inbetriebnehmer, die die Daten dann auch verarbeiten müssen, einen Zugriff auf die Daten haben. Das heißt, dass sie die Daten selektieren und anzeigen können. Wir haben da ein Dashboard und da wählen sie beispielsweise aus: Ich möchte jetzt die Laserleistungen von dem Laser in dem Schweißmodul visualisieren und das in Form eines Liniencharts. Und das wollen wir direkt an den User bringen, an den internen Manz User, damit er quasi ohne Softwareentwicklungskenntnisse, ohne die Spezialisten, die Daten anzeigen, visualisieren und tracken kann, die er für Prozessqualität und Stabilität benötigt. Das geht also so Hand in Hand: Das eine ist, die Daten überhaupt dem Kollegen zur Verfügung zu stellen. Da leistet der Datencollector von iTE SI einen großen Anteil. Er schreibt die Daten in die Datenbank und von dort aus werden sie quasi von unseren Spezialisten, Prozesskollegen und Inbetriebnehmern genommen und weiterverarbeitet. Im einfachsten Fall werden sie nur visualisiert und in komplexeren Fällen dann auch noch analysiert – mit Grenzwerten, mit Verrechnungen, mit Betrachtungen an Folgemaschinen, was ich vorher gesagt hatte. Es gibt vielfältige Möglichkeiten, aber es ist so einfach wie möglich für den Anwender.
 
Vielen Dank, das hat auch noch mal geholfen, das ein bisschen aus der Praxis zu untermauern. Jetzt geht’s ja immer konkret auch um Business Cases. Am Ende will man irgendwo einen Mehrwert für den Kunden schaffen, der zum Beispiel die Sondermaschinen von Manz im Einsatz hat. Jetzt geht’s da um Kosteneinsparungen oder vielleicht sogar in Richtung neuer Geschäftsmodelle. Wie sieht denn der Business Case auf eurer Seite aus? Was ist unterm Strich das Ergebnis?
Stephan
Wie eingangs gesagt, war der Hauptentwicklungszweck zunächst, die Maschine schneller beim Kunden zu haben. Und zwar mit der Qualität, wie der Kunde sie erwartet. Es ist zunächst mal eine Kosten- und Zeiteinsparung, die wir uns da auf die Fahne geschrieben haben. In der Folge hätten wir natürlich gern, dass der Kunde dann das smartPRODUCTIONKIT einsetzt, um es in seiner Produktion weiter zu verwenden. Da gibt’s jetzt verschiedene Ansätze, beispielsweise ein Freemium-Modell, wenn die Anlage oder die Linie rausgeht, dass das smartPRODUCTIONKIT für eine Weile kostenlos weiter genutzt werden kann. Wenn der Kunde dann hoffentlich auch einen Benefit und einen Mehrwert sieht, dann kann er das mit verschiedenen Lizenzmodellen auch lizenzieren bei uns. Dann kriegt er Updates oder kann auf die Kundenanforderungen eingehen, indem man noch mehr Dashboards, andere Dashboards oder Analysen einbaut – vielfältige Möglichkeiten.
 
Wenn ich jetzt so langsam in Richtung Ende komme: Wir haben am Anfang über einige Herausforderungen gesprochen. Sind die denn heute gelöst? Ist das Projekt ongoing und wie sieht das Ergebnis für euch in der Praxis aus?
Stephan
Wir haben erste Maschinen im Feld, wo das smartPRODUCTIONKIT läuft, und auch sehr zuverlässig läuft. Wir haben es in der Inbetriebnahme im Einsatz. Das Projekt ist ongoing. Man sagt immer: Software wird nie fertig. So krass will ich es jetzt nicht sagen, aber wir haben schon noch Ideen, wie man das Ganze weiterentwickeln kann. Und letztendlich haben natürlich auch unsere Kunden, unsere internen Kunden und auch der Endkunde, der User der Maschine, immer weitere Ideen. Gemeinsam mit dem Kunden entwickelt sich das Produkt weiter. Und da arbeiten wir dran und natürlich haben wir auch Ideen, wie man das Produkt hinsichtlich Service-Nutzung oder des Lernens mit Daten weiterentwickeln kann. Auch wenn es jetzt 10 Jahre Industrie 4.0 gibt, ist es verglichen mit dem Maschinenbau eine relativ junge Domäne. Ich glaube, da steckt noch einiges an Potenzial drin, auch wenn man das Buzzword KI in Mund nimmt und das miteinander verknüpft. Da kann man auf viele Gedanken und Ideen kommen, die sich auch gewinnbringend einsetzen lassen.
 
Ich glaube, auch wenn man sich die Endkunden anschaut, entwickelt sich da gerade viel – auch hinsichtlich der Akzeptanz. Am Ende ist es auch eine Lernkurve, die man mitnehmen muss. Das ganze Thema ist wahnsinnig komplex, das bekomme ich ja auch jeden Tag mit. Wolfram, noch mal in deine Richtung: Ihr entwickelt eure Produkte wahrscheinlich auch stetig weiter. Wir hatten das Produkt ja so ein bisschen in Richtung Endkunde gedacht. Wie sieht es denn mit euren IIoT Building Blocks noch aus? Was tut sich da? Wie entwickelt sich das Ganze bei euch?
Wolfram
Die Building Blocks sind wie gesagt aufgeteilt in „Collect“, „Explore“ und „Improve“. Der Collect-Teil ist gar nicht der wertschöpfende Anteil. Ich glaube, es war unsere Motivation, ein Stück Software zu bieten, das wie eine Art Schweizer Taschenmesser zu verwenden ist – in Richtung Schnittstellen zum Shopfloor und zu den Datenbanken. Man sieht in dem gezeigten Use Case, das wollte ich zum vorherigen Punkt noch ergänzen, wie schön man auch den gesamten Produktlebenszyklus mit abbilden kann. So lassen sich mit dem Baustein „Explore“ hier Daten visualisieren und Transparenz schaffen. Das ist ein ganz zentraler Punkt, bei all diesen Verbesserungsmaßnahmen, denke ich, dass man nur über diese Transparenz Impulse bekommt, die man nachher vielleicht auch rein menschlich umsetzen muss. Bis hin zum Thema Machine Learning und Vorhersage-Modellen mit denen man vielleicht die Qualität optimieren kann, weil man über diese Fertigungsschritte gelernt hat. So kann ich irgendwelche Netze trainieren, die vielleicht gegensteuern, wenn ich beispielsweise weiß, dass der Schweißprozess an der oberen Toleranzgrenze ist. Vielleicht kann ich an einer anderen Stelle entgegensteuern, damit ich am Ende wieder ein qualitativ hochwertiges Produkt erreiche. Das Ganze passiert im Greenfield, aber natürlich geht die Entwicklung weiter in Richtung mehr Schnittstellen für das ganze Brownfield. Der Durchschnitt der Maschinen in Deutschland oder Europa – ich bin mir gerade nicht ganz sicher – liegt laut verschiedener Quellen zwischen 12 und 18 oder 15 und 20 Jahren. Also auf jeden Fall eher älter. Das heißt, wir haben im Grunde nicht überall diese heute gängigen Schnittstellen in Richtung OPC UA oder MQTT, sondern einfach noch ganz, ganz andere Schnittstellen, die wir dort anbinden müssen, um das ganzheitlich betrachten zu können. Und in diese Richtung wird unsere Entwicklung weitergehen und hier gibt’s natürlich noch ganz viele andere Use Cases, die wir dort haben.
 
Das war jetzt eine schöne Überleitung. Ich wollte nämlich gerade noch kurz die Anschlussfrage stellen: Was sind denn Herausforderungen anderer Kunden? Mit welchen Use Cases seid ihr da noch unterwegs? Da geht es wahrscheinlich nicht immer um den Inbetriebnahmeprozess.
Wolfram
Zunächst einmal ganz viel in Richtung Konnektivität hin zu Maschinen und auch Brownfield-Konnektivität zu schaffen, das heißt, zu älteren Bestandsanlagen. Da geht’s um Themen wie Condition Monitoring oder Predictive Maintenance, was ein spannendes Thema ist, an dem viel Potenzial hängt, aus meiner Sicht, was aber auch ein dickes Brett zu bohren ist. Es geht um Taktzeitoptimierungen oder OEE-Optimierungen. Vielfach sind es im Moment diese Konnektivitätsfragen: Wie können wir mit Maschinen kommunizieren? Wie können wir auch zurückschreiben und Prozesse auf der Maschine beeinflussen. Das sind eigentlich viele Use Cases, die wir da in dem Umfeld diskutieren.
 
Vielen Dank. Ich danke euch beiden für diese spannenden Inhalte.

Podcast Folge

Interviewpartner

Wolfram Schäfer

Stephan Lausterer

Gastgeberin

Fragen?