Podcast

Folge #25Folge #25Folge #25Digitale Maschinenportale für den Verpackungs-Maschinenbau – Fremdbezug von Ersatzteilen und zugehörige Kapitalbindung – Retrofit für Filtrationsanlagen

In Podcastfolge 25 spricht Madeleine Mickeleit mit Jonas Schaub aus dem Vorstand der elunic AG. Thematisiert werden drei verschiedene Use Cases: Abo-Services als effiziente Erlösmodelle, Qualitätssicherung durch Künstliche Intelligenz und IIot Maschinenportale für Hersteller von Verpackungsmaschinen.

Use Cases in diesem Podcast

Zusammenfassung der Podcastfolge

Durch digitale Applikationen im Produktionsumfeld generiert elunic als IIoT-Dienstleister Mehrwerte für Maschinenhersteller. In dieser Podcastfolge stellt Vorstand Jonas Schaub einige dieser Mehrwerte sowie Schwierigkeiten, die sich auf dem Weg dahin ergeben, anhand von drei Use Cases vor.

 

Der erste Use Case handelt von der Zusammenarbeit mit einem Filtrationsanlagenbauer. Es geht um sogenannte „Piratenfilter“ und im Allgemeinen um Ersatzteile, die vom Endkunden gern woanders bezogen werden. elunics Lösung: bi-direktionale Kundenbeziehungen auf-bauen und durch Datenbereitstellung Mehrwerte sowie Abhängigkeiten schaffen. Hierbei können Lieferplan-Geschäftsmodelle, insbesondere Abo-Modelle, der Schlüssel zum Erfolg sein.

 

Use Case zwei dreht sich um die Themen Qualitätssicherung und Künstliche Intelligenz. Es geht um die vorausschauende Wartung und Durchführung optischer Qualitätssicherungen durch neuronale Netze sowie Prozesse, die bis dato von menschlichen Anwendern durchge-führt worden sind.

 

Im dritten Use Case erzählt Jonas Schaub von einem digitalen Maschinenportal für den Verpackungs-Maschinenbau. Aufgegriffen werden dabei unter anderem die Themen Ticketing, digitale Servicehefte und Single User Interfaces.

 

Podcast Interview

Was ist deine Rolle bei der elunic AG und was macht ihr genau?

Ich bin im Vorstand der elunic AG tätig. elunic ist ein Dienstleister – wir entwickeln und realisieren digitale Applikationen rund um das Thema Industrial IoT. Wir arbeiten dabei ausschließlich an Themen, die sich um die Prozesse im Produktionsumfeld drehen. Unser typischer Kunde ist ein Maschinenbauer, den wir dabei unterstützen, die Vision IoT zu gehen. Es geht um die Verwirklichung der Idee, dass die Vernetzung der Dinge und die Veredelung der Maschinen mit Software zukünftig eine relevante Chance und Wichtigkeit darstellen. Wir helfen dabei, diese Chancen aufzuzeigen, zu inspirieren und zu beraten, was mögliche Lösungen sein können. Wir weisen aber genauso auch darauf hin, welche Dinge man nicht tun sollte. Dabei greifen wir auf unsere Erfahrungen und Learnings mit anderen Projekten und Kunden zurück.

 

 

Kannst du uns einen kleinen Einblick in die Praxis geben? Mit welchen Herausforderungen kommen die Kunden zu euch, gibt es einen „Status Quo“ am Markt?

Der Klassiker sind momentan die beiden Themen Predictive Maintenance und Pay per X Modelle. Das ist aktuell der Heilige Gral, die Königsdisziplin und gleichzeitig die schwierigste Aufgabe, die man lösen kann. Ich halte es grundsätzlich für sinnig und gut, dass momentan ein sehr starkes Streben nach derart wiederkehrenden Erlösmodellen im Trend ist. Ich denke, eine wichtige Aufgabe ist, das Ganze ein bisschen differenzierter zu betrachten. Wenn man sich anschaut: Wer ist die Zielgruppe? Wie sind die strukturiert?

 

Ein klassisches per Pay Modell ist zum Beispiel der Kaffeeautomat am Flughafen. Der wird mittlerweile nicht mehr durch den Flughafenbetreiber betrieben, sondern mit einem Per Pay Modell aufgesetzt, damit sich der Flughafenbetreiber auf seine Kernkompetenzen konzentrieren und gleichzeitig aber auch an einem überproportionalen Erfolg partizipieren kann. Das ist natürlich die Vorlage und auch die These. Wenn die Dinge, die Maschinen, miteinander vernetzt sind, Trends wie Marktplätze deutlich effizienter werden und die Auslastung der Maschinen steigt, benötigt man ein Modell, um nicht nur am Verkauf der Hardware teilzuhaben, sondern auch an der Nutzung. Jedoch – und das kommt als Einschub – man muss es wirklich differenziert betrachten. Zum einen, weil wir konjunkturell und kulturell in einem Bereich sind, wo nicht jeder immer bereit ist, eine Maschine auf ewig Pay per Modell zu fahren. Als konkretes Beispiel: Wir haben momentan einen Niedrigzins. Wir haben in Deutschland eine Kultur, in der Maschinen oft gekauft werden, abgeschrieben werden und aus den Büchern raus sind, aber in der Produktion noch verwendet werden. Das sind alles Dinge, denen muss man Rechnung tragen, auf sie eingehen und schauen, passt das wirklich pauschal auf einen Pay per Use Modell-Ansatz.

 

 

Hast du einen konkreten Use Case aus deiner Praxis, anhand dessen man versteht, wo solche Modelle funktionieren können?

Wenn man sich Pay per Use Modelle als Endstufe anschaut, dann sind auf dem Weg dahin, verschiedene Abstufungen und Abgrenzungen möglich. Was wir immer sehr gern als Tool nutzen – inspiriert durch den B2C-Bereich, das Konsumentenumfeld – sind Abo-Modelle. Zum Beispiel Rasierklingen, das ist ein perfektes Modell: Da habe ich Verbrauchsmaterial, das kann über ein Abo-Modell als Anwender bezogen werden oder das Beispiel von Druckerpatronen, die automatisch nachbestellt werden, wenn der Drucker einen leeren Füllstand erreicht. Ich muss mich als Anwender um nichts kümmern, nicht in den Bestellvorgang eingreifen und sogar nicht einmal daran denken. Das ist die Inspiration, die wir nutzen. Wir sind geübt darin, zu identifizieren, wo es Chancen auf derartige Abo-Modelle gibt. Wir bedienen Verschleißkomponenten, Verbrauchsmaterialien oder Ersatzteile, die von anderen Marktteilnehmern teilweise günstiger angeboten werden und etablieren hier aber einen Modus, dass der Kunde daran interessiert ist, die Originalteile von uns zu beziehen. Und das idealerweise über eine Aboartige, fortlaufende Verhältnisstruktur.

 

 

Druckerpatronen und Rasierklingen dienen also als Inspiration. Hast du ein Beispiel, wo solche Modelle auch in der Industrie angewendet werden?

Ja, wir haben solche Modelle bereits in mehreren Fällen umgesetzt und erfolgreich im Einsatz. Das Ganze immer auch mit der Inspiration aus dem B2C-Umfeld, wie beispielsweise die Treue-Karte eines Bonus-Punkte-Systems. Im Sinne von: „Wenn ich mir beim Bäcker die zehnte Tasse Kaffee kaufe, bekomme ich die elfte Tasse umsonst.“. Dieses Modell haben wir auf einen Hersteller von Filtrationsanlagen übertragen, der bis dato einen Großteil seiner Wertschöpfung aus dem normalen Abverkauf der Anlagen gezogen hat. Darüber hinaus haben jedoch die Filter selbst immer mehr an Wichtigkeit gewonnen. Was haben wir gemacht? Wir haben diese Filter mit einer digitalen Lösung komplett in den Mittelpunkt gestellt. Der Filterbedarf wird automatisiert erkannt, vorhergesagt und dementsprechend wird die Bestellung ausgelöst.

 

 

Wie muss man sich so eine Filtrationsanlage in der Praxis vorstellen? Wie ist die Funktionsweise bzw. was sind interessante Daten, die eine solche Anlage liefert?

Filtrationsanlagen sind oft als Teil einer größeren Anlage im Einsatz, die bestimmte Dinge auf- oder nachbereiten. Der klassische Einsatzfall ist der Verschmutzungsgrad des Filters. Ist dieser verschmutzt, funktioniert die Filterung nicht mehr so gut. Der Fachbegriff dafür ist der Beladungszustand, der sensorisch über verschiedene Parameter gemessen und erfasst werden kann.

 

 

Wie digitalisiere ich so einen Filter und welches Ziel steht am Ende?

Es gibt zwei verschiedene Streams. Der erste und einfachere Weg: Ich schließe die Anlage digital ans Netz, bringe sie online, und kann dann den Export der Daten durchführen. Hierfür arbeiten wir mit Anbietern zusammen, die dabei unterstützen, die Daten über die Steuerung in eine zentralbetriebene Cloud-Applikation zur übergreifenden Archivierung zu laden. 

Der zweite Weg betrifft Anlagen, die sich bereits im Feld befinden, den sogenannten Retrofit: Wir setzen einen Offline-Trigger, z. B. einen QR-Code mit der Aufforderung „Scann mich“, durch den jeder Anwender dazu eingeladen wird, den Scanvorgang mit seinem Smartphone oder Tablet vorzunehmen. In dem Moment, wo er das Ganze ausführt, erhält der Hersteller direkt Infos. Beispielsweise wird die IP-Adresse verortet und er ist sofort in einem Modus, in dem er Informationen zum Zustand der Maschine erhält. Darüber hinaus wird der Anwender noch einmal motiviert und incentiviert, sich einzuloggen, um noch weitere Informationen abzurufen. Wenn wir die Maschine nicht direkt vernetzen können, stellen wir durch diese Brücke die Konnektivität über ein Drittgerät her.

 

 

Du hast es schon kurz angeteasert: Es geht um ein Abo-Modell bzw. eine Mehrwerterzeugung über die Connectivity. Was ist der genaue Mehrwert am Ende eines solchen Projektes?

Bei solchen „Piratenfiltern“ oder vielen Ersatz- und anderen Verschleißteilen ist es der Fall, dass wir als Hersteller nicht mehr im Spiel sind, wenn diese von woanders bezogen werden. Wir möchten unsere hochwertigen Produkte aber natürlich im Betrieb halten. Deshalb bauen wir eine bi-direktionale Kundenbeziehung auf und schaffen den Rückkanal. Wir incentivieren und belohnen die Treue des Kunden und können durch die aufbereiteten Daten besser verstehen, wie der Anwender den Filter in dem Fall nutzt. So können wir auch Prozesse optimieren, da es unterschiedliche Filter gibt. Der Anwender hat den großen Vorteil, dass er sich nicht 20 Filter ins Lager legen muss, er hat also weniger Kapitalbindung. Er muss nicht daran denken, rechtzeitig nachzubestellen, sondern hat immer genauso viel da, wie er gerade braucht.

Man muss sagen, dass da aber auch häufig das Kulturelle mit reinspielt. Es gibt Kunden, die werden sowas nie machen. Die sind sehr stolz, erfahren in ihren Prozessen und kennen den Zeitpunkt des Nachbestellens genau. Aber generell ist der Trend schon erkennbar, dass bestimmte Dinge aus der Hand gegeben werden, weil sie dadurch einfach abgefangen sind und funktionieren. Das ist die große Chance dieses Abo-Modells und das ist auch das Framework in Applikationsbasis, was wir mit einbringen und gestartet haben, spezifisch für den Anwender angereichert. Auf diese „Road to Pay per Use Modelle“ zu kommen, kann ein Meilenstein sein. 

 

 

Du hattest eben auch von QR-Code-Scannung durch Mitarbeiter gesprochen. Vielleicht kannst du den Weg vom QR-Code in die Cloud kurz darstellen. Wie funktioniert das im Gesamtkonzept, auch in Zusammenarbeit mit Partnern aus dem Hardware-Umfeld?

Wir betrachten das Problem „Connectivity“ gern als gelöst, weil es in der Regel das deterministischere Problem darstellt. Klar, es muss gemacht werden, aber da gibt es entsprechende Edge-Devices mit einer großen Schar an Treibern, um auch ältere Maschinen und Steuerungen mit anzubinden. Der Weg des QR-Codes wird gegangen, wenn wir gar nicht in der Lage sind, eine Maschine anzubinden, weil es entweder zu viele sind oder die infrastrukturellen Gegebenheiten es nicht zulassen.

 

 

Ein großes Thema aktuell ist natürlich Künstliche Intelligenz. Hast du ein Beispiel aus eurem Bereich, an dem man sieht, wie damit umgegangen wird?

KI, Machine und Deep Learning – das ist natürlich der technologiegetriebene Einstieg mit der Hoffnung, dass wir damit Dinge wie vorausschauende Wartung lösen können. Wir haben die Technologie für uns als große Chance für die Durchführung einer optischen, automatischen Qualitätssicherung identifiziert. Wir haben eine Lösung, die bis in Fernost, in Asien, zum Einsatz kommt. Dabei ist das neuronale Netz in der Lage, Merkmale auf einem Bildmaterial zu erkennen. Diese Merkmale können Kratzer, Risse, Dellen oder fachspezifische Dinge wie Lunker sein. Das, was normalerweise ein menschlicher Prüfer an der Produktionslinie übernimmt, und schaut, ob das Endstück der Güte entspricht, kann dieses System automatisiert durchführen.

 

 

Für welche Anwendergruppen setzt ihr so etwas um?

Die Kunden sind aus komplett verschiedenen Branchen, zum Beispiel haben wir auch Sportwagenhersteller. Bei der Endqualitätsprüfung, nachdem das Fahrzeug vom Band rollt, werden be-stimmte Merkmale des Fahrzeugs geprüft, z. B. ob gewisse Typenschilder vorhanden sind. Der Text darauf wird extrahiert, interpretiert, abgeglichen und sofern alles der Ordnung entspricht, bekommt das Fahrzeug den Haken, dass es in die freie Welt entlassen werden kann.

 

 

Wie werden die Risse, Kratzer, Dellen oder Lunker auf den Oberflächen genau erkannt? Wie funktioniert die Datenaufnahme an dieser Stelle?

Ich brauche ein Bildgebersystem – sprich eine Kamera, manchmal auch mehrere. Ich brauche in der Regel eine Beleuchtung, sodass ich konsistente Bildaufnahmen herstellen kann. Das ist per se auch noch nichts Neues. Solche optischen Prüfprozesse sind insbesondere in der Elektronikfertigung schon immer vorhanden gewesen. Wirtschaftlich machen diese erst ab einer bestimmten Stückzahl oder Losgröße Sinn, weil der entsprechende Aufwand dahinter sich erst dann amortisieren kann. In der bisherigen Welt, in der bisherigen Art und Weise wie die Dinge funktionieren, sind die Prozesse regelbasiert, programmatisch eingelernt. Sie haben den Nachteil, dass ich immer die Schleife über den Entwickler durchführen muss, wenn neue Merkmale beispielsweise zur Erkennung aufgenommen werden. 

 

Dem entgegen steht ein selbstlernendes System, also ein Computer, der auf Basis von vorhandenem Bildmaterial trainiert wird. Das Netz, der Computer, wird durch entsprechend markierter Fotos auf Fehlerarten und -gattungen antrainiert, um dann die Merkmale zu erkennen. Da ist meistens weit mehr noch dahinter, weil man bestimmte Vorverarbeitungen durchführen kann, da man durch das Nacheinanderschalten von Netzen eine ganz andere Qualität reinbringt. Der große Vorteil für den Anwender ist, dass er das System wirklich live antrainiert. Der Werker, der der am Band steht und dort die Prüfprozesse durchführt, kann in dem Moment, wo er einen Fehler zur Markierung meldet, auch gleichzeitig das System besser machen. Er muss nicht noch mal die Schleife über einen Entwicklungsprozess gehen, wo dann eine Drittperson oder eine andere Organisation das Ganze ausführen muss.

 

 

Wie sieht das mit der Schnittstelle zum Bediener aus – gibt es eine Art Dashboard, worüber dieser die Infos einpflegt und seine Rückmeldungen geben kann? Wie genau funktioniert der Weg in den Algorithmus? 

Der Bediener hat einen Bildschirm. Das kann ein Tablet oder ein installierter Monitor sein, wo er das Board sieht, wo er interaktiv die Möglichkeit hat, etwaige Merkmale wie Fehler, Kratzer, Risse, Dellen etc. zu markieren. In dem Moment wird dieses Bildmaterial archiviert und das Netz dahinter fortlaufend neu trainiert und verbessert.

 

Das heißt: Man legt vorher fest, wie das Teil im besten Fall aussehen sollte und wenn irgendein Fehler auftritt, hat man die Möglichkeit, das neuronale Netz nachzujustieren?

Genau und häufig ist das schwer, weil man eine bestimmte Menge an Bildmaterial braucht. Das ist eigentlich die größte Herausforderung. Aber es gibt entsprechende Möglichkeiten, den Weg abzukürzen, weil man sich vor allem an Gutteilen orientiert und bestimmte vorhandene vortrainierte Netze hat, die z. B. Kratzer oder Risse auf verschiedenen Materialen, Aluminium, Glas etc. darstellen können.

 

 

Ihr seid Dienstleister im Bereich der digitalen Applikationen. Wie genau sehen eure Lösungen aus?  Habt ihr eine Art Modulbaukasten, mit dem ihr die Themen umsetzt, oder sind das Indivi-dualprojekte? Wie genau bringt ihr eure Kompetenzen ein?

Wir können die Lösung Ende-zu-Ende anbieten, bis hin zu Hardware-Integrationspartnern, die Bildgebersysteme, Belichtung etc. durchführen. An sich handelt es sich hier um ein Lizenzprodukt, das es im Standard gibt. Je nach Ausprägung werden mit Engineering darauf individuell bestimmte Dinge umgewandelt – sofern notwendig – und am Ende mit einer Quote belegt. Es ist spannend, dass es nicht nur den Prozess als solchen darstellt, sondern man oft auch Dinge erkennt.

 

 

Das war ein Use Case aus dem Bereich KI. Hast du vielleicht noch einen anderen Use Case aus eurem Bereich, an dem man gut sieht, wie Hersteller mit solchen Lösungen umgehen?

Ein beliebtes Tool von uns ist die Implementierung eines Maschinenportals. Wir helfen Herstellern dabei – auch denen, die vielleicht schon Applikationen haben – zentral ein Single Interface to the Customer zu kreieren. Das heißt: Das Bild, das der Betreiber zentral einsehen kann, auf dem die ganzen Kontaktpunkte kanalisiert werden. Natürlich möchten wir auch den Rückkanal schärfen. Wir möchten eine mögliche Schar, eine Liste an Applikationen, die wir in der Zukunft sehen, den Herstellern einfach zugänglich aufbereiten.

 

 

Hast du ein konkretes Beispiel, an dem man sehen kann, wie so etwas in der Praxis funktioniert?

Ein schönes Beispiel ist ein Hersteller von Verpackungsmaschinen. Da geht es schon los in der Distribution der Betriebsanleitungen zu der Maschine und Dokumentationen, die bis dato auf CD-ROM passiert sind und mit einem Update nur auf dem Postweg erfolgen konnten. Hier kann ein direkter Online-Zugriff umgesetzt werden. Die Dokumente können Volltext-indexiert, nach der Anwendergruppe spezifisch priorisiert sowie aufbereitet und somit dem Anwender als Tool zur Verfügung gestellt werden. 

Darüber hinaus kann ich in dem Portal korrelierende Servicevorgänge verknüpfen, wie beispielsweise ein Ticketsystem – sofern der Support eines hat – oder den Ersatzteilkatalog. Ich habe einen zentralen Dreh- und Angelpunkt, von dem die verschiedenen Absprünge in die jeweiligen Unterapplikationen passieren.

 

 

Das bedeutet: Wenn ich bereits ein eigenes Ticketsystem habe, könnte ich die Daten in ein ganzheitliches Maschinenportal integrieren, sodass ich sozusagen eine „Quelle der Wahrheit“ habe?

Exakt und das ist auch das Zielbild. Ich bin der Überzeugung, wenn wir uns die Welt in wenigen Jahren vorstellen, dann habe ich als Hersteller von Maschinen mehrere Applikationen, die ich meinen Kunden zur Verfügung stelle. Um da die Convenience, den Zugang, die Ergonomie in der Software zu erleichtern, macht es Sinn, dass ich mich mit einem Benutzeraccount überall an-melden kann bzw. angemeldet bin und in einem einheitlichen Flow die Applikation starten kann.

Ob das dann am Ende Service-Applikationen mit Augmented Reality sind oder ob dass der Bestellprozess im Ersatzteilshop ist, das ist heute noch nicht zu entscheiden. Ich richte mich darauf ein, dass es eine Fragmentierung an Applikationen geben wird, die ich über eine Klammeranwendung bündele und dem Anwender zur Verfügung stelle.

 

 

Marco Link von der Firma ADAMOS hatte mit mir im Podcast in dem Zusammenhang vom Single-Sign-On-Verfahren gesprochen. Das ist genau das, was du mit der „Klammer“ um das Maschinenportal meinst, richtig?

Genau, das ist ein schönes Beispiel für einen von mehreren solcher zentralen Dienste. Man muss als Plattform aber nicht nur die Benutzer, sondern auch die Assets zentral verwalten. Damit ich nicht alle meine Benutzer, Maschinen oder auch bestimmte Telemetriedaten redundant pro Applikation ablegen muss, sondern die Daten, die übergreifend verwendet werden können, entsprechend abrufbar sind.

 

 

Neben einem Ticketsystem fass ich da wahrscheinlich auch noch weitere IT-Systeme an, wie zum Beispiel ein Ersatzteilmanagement oder einen Shop. Welche weiteren Partner sind an so einem Projekt beteiligt? Wie bau ich mit euch eine ganzheitliche Lösung?

Oft existiert sowas wie ein Ersatzteilsystem schon auf Kundenseite, das integriert wird. Für Augmented Reality Support gibt es verschiedene Anwendungen, unter anderem von Team Viewer, auf die ich zurückgreifen kann. Microsoft Azure, IoT und andere Plattformen liefern die technologische Grundlage, auf die man dementsprechende Lösungen fußen kann.

 

 

Nun haben wir über verschiedene Technologien gesprochen – was glaubst du, wird in den nächsten fünf Jahren noch kommen, wenn man Industrial IoT als übergreifende Technologie horizontal zugrunde legt? Welche Entwicklungen siehst du zukünftig, worauf müssen wir uns einstellen?

Ich glaube, dass die Art der Kunden, wie sie damit umgehen, wie sie sich einstellen, ganz relevant wird. Momentan haben wir ein gewisses Henne-Ei-Problem: Wir möchten als Hersteller Mehrwerte durch Daten anbieten. Dadurch, dass wir keine Daten haben, gibt es nur beschränkt Mehrwerte. Der Kunde, der nicht bereit ist, in Vorleistung Daten zu teilen, wird auch keine Mehrwerte bekommen. Dieses Eis muss gebrochen werden. 

Dann bin ich der Überzeugung, dass die Art wie die Geschäftsmodelle funktionieren, mit ein Treiber sein werden. Ich als Hersteller, der bis heute sehr transaktional gelebt hat, wird stärker in wiederkehrende Erlöse kommen. Ob das am Ende Pay per Use ist oder ob das performancebasierte Verträge sind, bei denen neben einer Reaktionszeit, einer SLA eines Technikers, auch eine gewisse Garantie zur Verfügbarkeit gegeben wird – das werden wir sehen. Das sind dann die Abstufungen, wo ich glaube, dass die Dinge auch notwendig sind, damit dieses Technologie-getriebene, KI-Getriebene irgendwann einen Mehrwert für beide Seiten generiert.

 

 

Siehst du branchenspezifische Lösungen, die sich gerade am Markt auftun? Oder Branchen, in denen das Thema Industrial IoT schon Einzug gefunden, und vielleicht schon kommerziell Erfolg gebracht hat?

Um den Bogen noch einmal zum Anfang zu spannen: Was für uns ein prima Modell ist, ist die Sache mit den Verbrauchsmaterialen, bei denen ich den Rückkanal nutzen kann. Wenn ich nur eine Maschine verkaufe, die danach ohne Verschleiß läuft, dann ist es im Prinzip ein Pay per Use, eine andere Form des Leasings – nicht auf Zeit, sondern mit anderen Parametern. Wirklich interessant wird es, wenn ich Konfigurationsparameter, Verbrauchsmaterialien oder Prozesssteuerungen in diesen Vertrag mit einbringen kann.

 

 

Im Use Case 2 hatten wir über Künstliche Intelligenz gesprochen. Siehst du dort Trends, die sich in Hinblick auf IoT aufzeigen? 

Meine Erfahrungen und Beobachtung sind, dass wir uns im Produktionsumfeld in einem Bereich bewegen, wo Veränderungen schwieriger beizubringen sind und wo eine Veränderung ein größeres Projekt darstellt. Oftmals sind es immer noch kleine Dinge, die einen größeren Hebel haben – beispielsweise die Produktion papierlos zu gestalten. Damit habe ich Chancen, sehr einfach Dinge durchzuführen, die ich dann wiederum ausrollen muss. 

KI kann da irgendwo ein Thema sein. Unsere Erfahrung ist aber auch, dass es nicht unbedingt nur an der Menge an Daten mangelt, sondern oftmals eine Hülle und Fülle an Telemetrie- und Prozessdaten vorhanden ist und entsprechende Auswertungen gemacht werden sollen, jedoch der Kontext, die Beschreibung, das Labeling dieser Daten fehlt. Zum Beispiel sehe ich einen bestimmten Temperaturwert, der sehr stark ansteigt und wieder abfällt. Wenn ich jetzt nicht protokolliert habe, dass ich zu dieser Zeit eine Komponente in der Maschine getauscht habe, dann tu ich mich schwer, daraus Ableitungen zu treffen. Das ist eines der großen Dinge, die ich als Notwendigkeit für KI sehe, diesen Kontext in irgendeiner Form mitzubringen. Wenn das erfolgt, wenn ich die Tools dafür habe und der Markt es auch mehr nutzt, dann glaube ich, gibt es wieder schnell größere Sprünge.

 

Podcast Folge

Interviewpartner

Jonas Schaub

Vorstand |
elunic

Gastgeberin

Fragen?