Podcast

Folge #48Folge #48Folge #48Qualitätskontrolle mit KI-Industriekameras – vom Bild- zum Ergebnislieferant

Die 48. Folge des Industrial IoT Use Case Podcast handelt von Industriekameras, die nicht nur Bilder machen, sondern mitdenken und in der Lage sind, selbst Entscheidungen zu treffen.  Patrick Schick (Produkt Marketing Manager, IDS Imaging Development Systems GmbH) und Alexey Pavlov (Gründer und Geschäftsführer, urobots GmbH) sprechen über KI-basierte Kameras mit Augen und Gehirn und ihre weitreichenden Mehrwerte.

Use Cases in diesem Podcast

Zusammenfassung der Podcastfolge

IDS Imaging Development Systems präsentiert mit IDS NXT eine Plattform für industrielle Anwendungen von der klassischen bis zur KI-basierten Bildverarbeitung. Mit seinen Industriekameras liefert IDS nicht nur Bilder, sondern direkt einsehbare Ergebnisse. Durch integrierte Bildverarbeitung und verschiedenster Kommunikationsschnittstellen wie OPCUA sind die Kameras in der Lage, Ergebnisse eines Prozesses zu visualisieren und Maschinen sowie Anlagen zu steuern – und das ohne Anbindung an einen PC. 

 

Wie sieht ein Prozess aus, in dem die IDS NXT Kameras Anwendung finden? Ein Beispiel, das im Podcast beschrieben wird, ist die Endkontrolle bei der Produktion von Dichtringen. Ein Produktexperte verpasst den Dichtringen anhand ihrer Beschaffenheit im Trainingsprozess der KI ein Label, z. B. Gut- oder Schlechtteil. Von diesen gelabelten Teilen werden Bilder aufgenommen, wobei 10 bis 20 Bilder bereits ausreichen, um die KI zu trainieren und zum Erfolg zu führen. Das bedeutet: Das Fachwissen der Person an der Endkontrolle wird in die KI gegossen, damit der Roboter in der Endkontrolle selbstständig arbeiten und Gut- von Schlechtteilen unterscheiden kann. Der große Vorteil: Für die Arbeit mit und an der Kamera ist kein eigenes Wissen über Künstliche Intelligenz notwendig. Das einzige Wissen, das benötigt wird, ist das Fachwissen über die entsprechenden Produkte.

 

Es geht aber auch anders: IDS hat in dieser Podcastfolge seinen Kunden urobots mitgebracht, der bereits selbst eine Bildverarbeitungs-KI entwickelt hat und den KI-Beschleuniger verwendet, der auf der IDS NXT Kamera läuft. Das Wissen wird auf einer offenen Plattform geteilt. IDS bedient damit zwei verschiedene Arten von Kunden – mit KI-Vorwissen und ohne.

 

Was sind die Benefits der Kameras? Eine Genauigkeit von 99,9 % in der Qualitätskontrolle und damit die Reduktion von Reklamationskosten. Durch die Übernahme monotoner Arbeiten durch Roboter können Mitarbeiter in anderen Bereichen effizienter eingesetzt werden. Außerdem fallen für die Anwender weniger Investitionskosten in eigene Hardware an, unter anderem dadurch, dass die IDS NXT ohne PC auskommt. Anwender brauchen außerdem keine eigene Bildverarbeitungsabteilung, da die KI den gesamten Job übernimmt. Zudem arbeiten die Kameras arbeiten sehr schnell: urobots spricht von circa 200 Millisekunden, in denen die Software die Positionen aller Objekte auf dem Kamerabild erfasst. Das heißt, fünf Erfassungen pro Sekunde. Die Genauigkeit der Erfassung beträgt dabei +- 2 Grad und +- 2 Pixel. Durch die schnellere Rechenzeit können schnellere Entscheidungen getroffen werden, was wiederum die Taktzahl erhöht.

Podcast Interview

Hallo Alexej, Hallo Patrick, herzlich willkommen zum IIoT Use Case Podcast. Ich freue mich sehr, dass ihr heute mit dabei seid, euch die Zeit genommen habt und unseren Hörern ein paar Insights zu euren Themen mitgebt. Ich würde sagen, wir starten einfach mal mit einer kurzen Vorstellungsrunde. Ich schau mal in deine Richtung, Patrick. Magst du dich kurz vorstellen und ein oder zwei Punkte schon mal zu eurem Unternehmen, zu einem Kerngeschäft sagen, wo ihr genau unterwegs seid?

Patrick

Danke, das mach ich gern. Mein Name ist Patrick Schick. Ich bin Produkt Marketing Manager bei der Firma IDS. IDS Imaging Development Systems GmbH. Wir sind weltweit führender Hersteller von digitalen Industriekameras mit Sitz in Süddeutschland, dem schönsten Teil Deutschlands. Bereits seit 1997 entwickeln und produzieren wir Produkte in diesem Umfeld der industriellen Bildverarbeitung. Was bei uns ganz spannend isst: Wir haben alles hier in Süddeutschland am Standort. Das heißt, wir forschen, entwickeln und produzieren hier alles direkt am Standort. Das heißt auch, wir haben auch extrem kurze Wege. Wir können von der Forschung in die Produktion direkt Dinge transferieren. Unser Portfolio umfasst klassische 2D-Industriekameras. Wir haben 3D Active Stereovision Kameras und wir bieten die IDS NXT, eine externe Embedded Vision Plattform, an. Das ist eine Plattform für industrielle Anwendungen von der klassischen Bildverarbeitung bis hin zur KI-basierten Bildverarbeitung. Mit dieser Plattform liefern wir nicht nur Bilder ab, was das typische Ergebnis einer Industriekamera ist, sondern durch die integrierte Bildverarbeitung und unterschiedliche Kommunikationsschnittstellen wie OPCUA oder das im IoT-Bereich bekannte REF Protokoll können wir direkt Ergebnisse abliefern, so wie jeder andere Sensor auch und damit direkt auch mit einer Anlage interagieren, eine Anlage steuern.

 
Du hast heute einen Kunden mitgebracht – urobots GmbH. Hallo Alexey, noch mal in deine Richtung. Vielen Dank, dass du dir heute auch die Zeit nimmst, dabei zu sein. Ich würde sagen, wir runden die Vorstellungsrunde einfach mal kurz ab und dann würde ich inhaltlich in das Thema Bildverarbeitung einsteigen. Alexej, magst du dich kurz vorstellen, auch was ihr macht, was du persönlich im Unternehmen für eine Verantwortung hast und wer eure Kunden sind.
Alexey
Ja, Madeleine, sehr gern. Ich bin Alexey Pavlov der Gründer und Geschäftsführer der Firma urobots GmbH. urobots ist ein Softwareentwicklungsunternehmen aus Pforzheim und wir sind spezialisiert auf Bildverarbeitung für die Qualität und Montagekontrolle und auch auf Robot Vision. Unsere Kunden kommen aus dem produzierenden Gewerbe – entweder sind das Hersteller, die ihre eigenen Linien nachrüsten wollen oder Automatisierungsunternehmen, die moderne Produktionsanlagen bauen.
 
Du hast jetzt gerade schon eure Kunden angesprochen. Wie muss man sich das vorstellen? Mit wem sprecht ihr da? Sind das eher die IT-Leute oder die technischen Verantwortlichen? Oder wer sind die Kunden, mit denen ihr am meisten sprecht bzw. wer sind eure Ansprechpartner beim Kunden?
Alexey
Ganz unterschiedlich. Also hauptsächlich Prozessverantwortliche. Zum Beispiel die Leute, die verantwortlich sind, damit die Linie gut funktioniert oder das Instandhaltungsteam oder die IT-Leiter. Die Leute, die sich wirklich darum kümmern, dass Produktion gut läuft, fehlerfrei läuft und die Qualität von der Produktion gut ist.
 
Ihr von urobots beschäftigt euch primär, wie du eben auch schon ausgeführt hast, mit der Software, aber auch mit den Algorithmen für maschinelles Lernen und Computer Vision. Jetzt eine Frage an dich, Patrick. Wir sprechen ja heute über das Thema Bildverarbeitung, aber auch im Kontext eurer industriellen Kameras. Vielleicht um mal ganz einfach einzusteigen: Ihr kommt ja klassisch aus dem Industriekamerageschäft. Was siehst du denn jetzt für Marktveränderungen in eurem Kundensegment und was ist hier ein Stück weit die Relevanz der Digitalisierung im weitesten Sinne?
Patrick
Ich würde mal mit der Digitalisierung anfangen, denn die ist nämlich schnell beantwortet. Wir sind Hersteller von digitalen Industriekameras. Das heißt, was das Bilder digitalisieren anbelangt, das ist abgeschlossen. Das ist längst da. Wir sind da eher jetzt dran, dass wird das tiefer in die Kundenapplikation reinintegrieren, dass wir nicht nur als reiner Lieferant da sind, sondern als Ergebnislieferant. Was sehen wir für Marktveränderungen? Unsere Kunde und Anwender suchen immer mehr nach fertigen Lösungen und viel weniger nach einzelnen Komponente. Wir sind eigentlich ein klassische Komponentenhersteller. Wie kommen wir dazu, dem Kunden eine Lösung anbieten zu können? Sie möchten möglichst schnell ihr Fachwissen einbringe und sich optimalerweise nicht um die Bildverarbeitung kümmern. Das soll jemand anders für sie erledigen. Das heißt, eine Marktveränderungen ist, die Kunden suchen nach Lösungen. Die andere große Marktveränderungen, die wir sehen, ist, dass durch das Thema künstliche Intelligenz als Massenprodukt mittlerweile in der Bildverarbeitung, entstehen auch ganz andere Möglichkeiten. Zum einen kann man bestehende Anwendungen deutlich verbessern, indem man von einer klassischen, regelbasierten Algorithmik weggeht und durch KI ersetzt. Und es sind ganz neue Anwendungen möglich. Wenn man jetzt einmal in den Bereich Food oder Agriculture reinguckt da kann man auf einmal Applikationen lösen, das war vorher gar nicht möglich. Denn wir bewegen uns da im Umfeld von organischen Systemen und die sind schwer regelbasiert zu beschreiben. Beispielsweise: Beschreibe den Unterschied zwischen einer Nutzpflanze und einem Unkraut, das auf dem Acker wächst. Wenn man kurz mal in die Algorithmik reingeht und das programmieren würde: Es ist beides grün, aber die eine Blattform kann mal so sein, mal so. Ein Mensch kann aber einfach hingehen und sagen: Das ist Unkraut. Das ist eine Nutzpflanze. Das heißt, er kann es bewerten, labeln. Und genau dieses Wissen können wir in der künstlichen Intelligenz trainieren und können ganz neue Lösungen damit aufbauen.
 
Dieses Thema Labeln und KI – da würde ich auch gleich noch mal nachhaken. Alexej, du hattest ja gerade jetzt auch schon die Qualitätsverarbeitung bzw. auch die Prozesse angesprochen, die bei eurem Kunden stattfinden, bei denen ihr im Endeffekt mit eurem Software-Stack helft. Mich würde jetzt mal interessieren: Wie sieht es eigentlich vor Ort bei eurem Kunden aus bzw. wie sehen solche Prozesse aus? Kannst du uns mal ein virtuelles Bild von einem Kunden mitgeben? Wie sieht der Prozess vor Ort bei euren Kunden aus?
Alexey
Als Beispiel stellen wir uns einmal eine Fertigungslinie mit Objekten auf einem Förderband vor, die von einer automatisierten Station bearbeitet werden sollen. Die Positionen der Objekte auf dem Band sind zufällig und sie sind über die gesamte Oberfläche verstreut. Es muss jemanden geben, der diese Objekte entsprechend erkennt, auswählt und die gewünschte Arbeit erledigt, z.B. in die Verpackungen legt oder eine Weiterverarbeitungs- oder Analysestation vorbereitet. Solche Arten von Aufgaben nennt man auch Pick und Place. Häufig wird das von Menschen übernommen und diese Arbeit ist einfach, aber monoton, sodass Menschen an dieser Stelle gut von Robotern ersetzt werden könnten. Unser Ziel ist, dieses Ersetzen oder Ergänzen der Arbeitskraft zu ermöglichen. Die Systemlösung dafür besteht aus der IDS NXT Kamera, unserer Bildverarbeitungssoftware und beliebigen kooperativen Robotern. Die NXT-Kamera kann man als Roboteraugen mit Gehirn betrachten. Außerdem möchten wir unseren Kunden eine Möglichkeit bieten, unsere Lösung für verschiedene Anwendungsfälle zu modifizieren und anzupassen. Das heißt, wenn sich plötzlich etwas in der Produktion ändert z. B. die Beleuchtung, das Aussehen der Objekte oder wenn der Kunde neue Objekttypen mit derselben Anlage bearbeiten will, dann soll das für den Kunden ganz leicht umsetzbar sein.
 
Jetzt würde ich mal so ein bisschen den Schwenk in Richtung der Industriekamera und seitens IDS bringen. Du hattest gesagt, es geht um Pick and Place und jetzt wird ja irgendwo auch eine IDS NXT Plattform oder Lösung hier eingesetzt. Wie muss man sich das in der Praxis vorstellen? Was war hier die Herausforderung und wie habt ihr das mit dieser Kamera gelöst, was du jetzt gerade beschrieben hast?
Alexey
In unserer Firma haben wir eigentlich bereits eine PC-basierte Lösung für die Erfassung von Objekten und zur Robotersteuerung entwickelt. Dafür haben wir ein eigenes Künstliche Intelligenz Modell entwickelt, das in der Lage ist, die Position und Orientierung von Objekten in den Bildern zu erkennen. Diesmal bestand unser Ziel darin, diese PC-basierte Lösung auf die IDS NXT Plattform zu portieren, indem wir eine spezielle NXT App entwickelten. Und die Herausforderung bestand dabei in zwei großen Aufgaben: Erstens müssen wir unsere eigenen KI-Modelle auf der Kamerahardware ausführen, also auf IDS NXT. Denn eine PC-Lösung nutzt zum Ausführen der Modelle die Grafikkarte, sogenannte GPU (Graphics Processing Unit, Grafikprozessor), und auf der Kamera ist der FPGA (Field Programmable Gate Array, ein integrierter Schaltkreis der Digitaltechnik) eine andere Technik. Deshalb haben wir unsere Künstliche Intelligenz Modelle angepasst und mit Hilfe eines speziellen Tools von IDS in FPGA Modelle umgewandelt. Zweitens: Unsere Software, die mit dem Roboter kommuniziert und 2D-Koordinaten von erfassten Objekten in die 3D Koordinaten des Roboters umwandelt, ist in der Programmiersprache Python geschrieben. Aber für die NXT App Entwicklung wird C++ verwendet. Deswegen müssen wir unseren Code anpassen. Da wir schon Erfahrungen mit der Entwicklung von Software für die NXT Kamera hatten, konnten wir das relativ schnell innerhalb von wenigen Wochen erfolgreich abschließen und jetzt braucht man quasi keinen PC. Jetzt kann man die Aufgabe nur mit einem Roboter und nur mit einer IDS NXT Kamera lösen.
 
Bevor ich jetzt gleich auf die Daten eingehe, eine kurze Zwischenfrage an dich, Patrick: Habe ich das jetzt richtig verstanden? Heißt das, ich habe irgendwo ein Förderband mit verschiedenen Objekten. Der Roboter führt dort seine Arbeit aus. Und jetzt kommen eure Industriekamera zum Einsatz und dieser-KI Algorithmus, der dafür sorgt, dass diese Bildverarbeitung überhaupt stattfinden kann, das läuft sozusagen auf eurer Kamera. Habe ich es richtig verstanden?
Patrick
Genau, die IDS NXT hat einen integrierten KI-Beschleuniger. Dadurch können wir, wie es Alexey gerade gesagt hat, das, was man auf dem PC, auf einer GPU ausführen musste, direkt auf der Kamera, auf dem Edge Device, ausführen. Vielleicht dazu noch: Da gibt’s zwei Wege. Wir haben ja gerade von Lösungsanbietern und dem Fragen nach Lösungen gesprochen. Zum einen kann ein Kunde direkt mit IDS NXT ocean sich selbst Netze trainieren, ohne überhaupt KI-Wissen zu haben. Das kann er einfach bei uns auf der Cloud direkt trainieren und dann Netze hochladen. Und dann verfolgt die IDS NXT einen zweiten Ansatz und das ist das, was die urobots hier umsetzt: Es ist eine offene Plattform. Alexey kann mit seinen eigenen Netzen, mit seiner eigenen KI herkommen, und unseren Beschleuniger, der auf der IDS NXT Kamera läuft, verwenden.
 
Alexey, mich würde jetzt mal interessieren: Eure Kunden haben verschiedene Systeme schon vielleicht im Einsatz. Jetzt brauche ich bestimmte Kennzahlen, um überhaupt diese Daten irgendwo auszuwerten. Welche Daten und Kennzahlen sind denn hier für euren Kunden interessant in so einem Prozess?
Alexey
Am Anfang ein bisschen über Performance Kennzahlen und Möglichkeiten sozusagen. Unsere Software erfasst die Positionen aller Objekte auf dem Kamerabild in circa 200 Millisekunden. Das sind fünf Erfassungen pro Sekunde. Die Genauigkeit der Erfassung beträgt plus minus 2 Grad und plus minus 2 Pixel. Objekte verschiedener Art können gleichzeitig lokalisiert werden. Die Software liefert die Position und den Typ aller erkannten Objekten. Flexible Objekte oder Objekte, die sich leicht voneinander unterscheiden, werden unterstützt. Das heißt, die Objekte müssen nicht genau gleich aussehen – eine Formabweichung ist erlaubt und kann von der KI trainiert werden. Was die Hardware betrifft, braucht man für die Produktion eine IDS NXT Kamera und einen Roboter. Wir unterstützen Universal Robots Roboter mit einer von uns entwickelten Erweiterung, die auf dem Roboter installiert werden kann. Diese Erweiterung unterstützt die Kommunikation mit der Kamerasoftware und ermöglicht die Programmierung der Roboterbewegungen durch sogenanntes Teaching. Das bedeutet, es genügt, den Roboter einmal in die gewünschte Position zu einem von der Kamerasoftware erkannten Objekten zu bringen, damit er später exakt dieselbe Position zu anderen Objekten einnimmt, die sich woanders befinden. Die Kamerasoftware kann auch eine Unterstützung für andere Roboterplattformen oder Geräte sein, wie SPS zum Beispiel. Wir können praktisch jedes Ethernet-basierte Protokoll implementieren, da IDS NXT im Grunde eine Kamera mit Computer oder ein Computer mit Kamera ist. Für uns sind die Entwicklungsmöglichkeiten hier praktisch grenzenlos.
 
Patrick, vielleicht noch eine Frage an dich. Wir sprechen jetzt über verschiedene Daten, so wie Alexey es eben ausgeführt hat. Wie gelangen denn diese Daten von eurer Kamera in die NXT-Plattform? Wie gelangen diese Daten „von unten nach oben“ in die Cloud? Wie funktioniert diese Datenverarbeitung? Das würde ich gern mal so ein bisschen verstehen.
Patrick
Im Prinzip geht’s eigentlich klassisch wie bei jeder Industriekamera los: Wir nehmen erstmal Bilder auf, Bilder von dem, was wir nachher auswerten möchten. Das können wie beim Alexey Werkstücke oder ähnliches sein. Dann kommt ein Fachexperte für diese Produkte und Labelt diese Bilder. Er sagt das ist ein Gutteil dessen Schlechtteil und dann lädt er diese Bilder in die Cloud hoch. Das ist unsere IDS NXT lighthouse Tool. Das ist ein cloudbasiertes Trainingstool für künstliche Intelligenz. Da wird es hochgeladen und im Prinzip war’s das dann schon. Dann muss man nur noch die geLabelten Bilder oben ablegen, das Training anstoßen und raus kommt eine fertigtrainierte KI. Das heißt unser Anwender braucht kein Know-how im Thema künstliche Intelligenz, das ist alles in der Cloud abgebildet. Er muss nur Fachwissen in seinem Gebiet mitbringen. Er lädt es hoch, er trainiert das Netz, er bekommt das Netz zurück, lädt es auf die IDS NXT hoch und kann dann mit der gleichen Kamera, mit der er vorher die Aufnahmen gemacht hat, die Auswertung machen und direkt Ergebnisse an seine Anlage senden. Das ist der eine Fall. Das ist das IDS NXT ocean Paket. Der andere Fall ist, dass die Aufgaben doch so komplex sind, dass man noch jemanden als Unterstützung braucht, um eine Bildverarbeitung umzusetzen, um vielleicht eine KI zu implementieren, die wir jetzt standardmäßig nicht unterstützen. Und dann kommen Lösungsanbieter wie urobots mit ins Spiel. Da ist die IDS NXT eine offene Plattform. Da kann dann urobots seine eigene App drauf programmieren. Aber im Endeffekt kommen die Daten auf dem gleichen Weg daher. Es gibt Bilder, die werden gelabelt nach ihren Eigenschaften, es wird eine KI trainiert, die KI wird hochgeladen und führt dann die Bildverarbeitung aus.
 
Wenn ich mir jetzt vorstellen, ich bin Fertigungsleiter und betreue diese Linie, wo diese Objekte manuell entfernt werden. Jetzt macht man das mit einem Roboter und eurer Industriekamera. Kannst du mal ein Beispiel von diesem Labeling nennen? Ich versuche mir gerade den Prozess vorzustellen: Ich sehe, dieses Objekt ist jetzt entweder nicht das Richtige oder es liegt vielleicht falsch. Dann würde der Roboter hingehen und dieses Werkstück vielleicht wieder aufrichten oder würde das direkt aussortieren. Dafür brauche ich aber die Kompetenz, um zu wissen, dass das so ist und dafür Label ich diese Daten, richtig?
Patrick
Genau, ich würde als Beispiel mal eine Endkontrolle von Dichtringen nehmen. Es werden Dichtringe produziert, wir sind in der Endkontrolle. Und da steht heute jemand, guckt sich diese Ringe an und sagt: Ah, der ist gut, der passt und oh, da ist ein Grat dran, der ist vielleicht nicht hundertprozentig rund oder hat einfach einen Fehler. Die Person, die es bisher inspiziert, die kann innerhalb von Millisekunden entscheiden, der ist gut oder schlecht. Die sieht es einfach, wie wir als Menschen ganz schnell solche Entscheidungen treffen können. Wohingegen eine regelbasierte Algorithmik ein Thema oder ein Problem hat. Dann mache ich Aufnahmen von den Gut- und Schlechtteilen, die die Person vorgelabelt hat, indem sie es zum Beispiel in die Gut-Ablage oder die Schlecht-Ablage gelegt hat. Das heißt, das Fachwissen der Person an der Endkontrolle wird in die KI gegossen. Das ist der Input für die künstliche Intelligenz, fürs Training der künstlichen Intelligenz.
 
Alexey
Madeleine, wenn wir über unseren Use Case sprechen, hast du absolut recht. Wir haben ein spezielles Tool für den Labeling-Prozess. entwickelt. Und da gibt’s einfach unterschiedliche Label-Typen. Das heißt, wenn du z. B. zwei unterschiedliche Objekte auf dem Bild hast, dann hast du zwei unterschiedliche Labels – Objekt 1, Objekt 2. Und wenn Objekt 1 noch einmal anders liegen kann, auf einer anderen Seite, dann machen wir noch ein drittes Label und sagen, das ist Objekt 1 auf der Seite und damit trainiert sich künstliche Intelligenz und danach ist sie in der Lage, diese zwei Objektetypen plus ein Objekt auf der Seite zu erkennen. Und dann können Roboterprogrammierer das Programm entsprechend erstellen. Und bei uns geht Training genauso. Man braucht nur Kamerabilder mit Objekten. Der Kunde macht das mit seiner Kamera, wie Patrick gesagt hat, dann Labeln mit unserem Tool. 10 bis 20 Bilder reichen eigentlich aus, um die KI-Modelle zu trainieren und das Training des KI-Modells und die Vorbereitung für den Einsatz auf der IDS NXT Kamera werden von uns übernommen. Das ist ein anderer Modelltyp alles bei lighthouse. Aber wenn der Kunde einen eigenen PC mit GPU hat, kann er das auch selbst machen. Dafür ist wie bei lighthouse kein Expertenwissen erforderlich. Der Kunde muss nur die Bilder vorbereiten und den Rest übernimmt automatisch unsere Software.
 
Vielen Dank für die Ausführung. Patrick, vielleicht nochmal an dich die Frage in Richtung dieses Kompetenzgefüges: Ihr habt ja beide Bildverarbeitung. Wer bringt hier welche Kompetenzen im Detail ein?
Patrick
Also mal vorneweg: Der Kunde, der bringt immer seine Fachkompetenz ein für sein Produkt, das er herstellt. Dann kommen wir als IDS ins Spiel. Wir bringen als eine Kompetenz das performante Ausführen von neuronalen Netzen (KI) auf einem Embedded Device mit. Das ist die Kompetenz, die kann der Alexey für seine Lösungen wieder weiterverwenden, um kundenspezifische Lösungen zu machen. Aber damit hört es nicht auf. Und zwar auf Unterseite decken wir die komplette KI-Kette ab. Das heißt neben dem KI-Beschleuniger haben wir auch noch das Training von neuronalen Netzen cloudbasiert umgesetzt. Auch diese Kompetenz nehmen wir dem Kunden ab. Es gibt da die zwei Wege: Entweder ich brauche eine spezielle KI, dann urobots oder andere Partner, oder ich möchte es für mich selbst trainieren. Dann kann ich mit IDS NXT lighthouse, wenn es um Klassifikationen, Objekterkennung geht, direkt loslegen und als Kunde selbst trainieren. Wir von der IDS versuchen die komplette KI-Kompetenz abzubilden -vom Ausführen bis hin zum Training. Das sind unsere Hauptkompetenzen in diesem Umfeld. Ich würde vielleicht einen Punkt noch ergänzen: Als IDS bringen wir euch auch unser komplettes restliches Industriekamera Know-how an der Stelle mit, denn es hört ja nicht mit dem Stückchen Hardware auf. Ich brauch passende Objektive dazu, ich brauche Kabel, ich muss wissen, wie ich es montiere usw. Das kommt natürlich alles noch mit.
 
Bei solchen Projekten ist es auch immer interessant zu wissen, was ist der Business Case. Ich meine, am Ende will man Kosten damit einsparen oder vielleicht sogar neue Erlöse erzielen, um einfach besser zu sein. Vielleicht auch am Go to Market, um einfach die Prozesse am Ende zu optimieren. Deswegen werde ich immer gefragt: Was ist eigentlich der Business Case dahinter? Wie verdiene ich damit als Kunde Geld? Und Alexey mal die Frage an dich, ihr seid ja jetzt auch schon länger in diesem Bildverarbeitungsthema mit drin, wie sieht da der Business Case für einen Kunden aus?
Alexey
Also in unserem Bereich, im Bereich Vision, ist KI dem Menschen überlegen. KI ist schnell, arbeitet nahezu fehlerfrei, macht keine Pausen. Daher ist sie einfach effizienter. Wir haben das bereits in vielen anderen Bereichen bewiesen, z. B. bei der Qualitätskontrolle, dass die Genauigkeit von KI 99,9 Prozent. Unsere Kunden können dadurch z. B. Reklamationskosten reduzieren. Das ist der Sinn der Sache. Aber im Zusammenspiel mit Robotik kann künstliche Intelligenz durch die Übernahme monotoner Arbeiten Kosten senken. So benötigt der Kunde z. B. pro Tag statt drei Arbeiter nur einen einzigen Roboter und die Menschen können dann in vielen anderen Bereichen eingesetzt werden, in denen sie den Robotern überlegen sind. Und auch der Einsatz der IDS NXT Kamera ist ein klarer Vorteil, weil in einigen Fällen, wie z B. in unserem Pick and Place Fall, ersetzt NXT den PC komplett und senkt dadurch die Anschaffungs- und Instandhaltungskosten.
 
Patrick, vielleicht auch noch mal die Frage an dich: Der Business Case bei euch ist ja im Endeffekt mit der neuen Kamera, die er jetzt rausbringt, dass der PC ersetzt wird, oder?
Patrick
Also einer ist klar, ich kann in den meisten Fällen auf einen PC verzichten, da die Kamera Ergebnisse liefert und nicht nur Bilder, die dann auf dem PC ausgewertet werden müssen. Auf der anderen Seite könne unsere Anwender aber durchaus auf eine eigene Bildverarbeitung Abteilung verzichten, weil wenn sich eine Applikation KI basiert lösen lässt, bieten wir alles an. Durchs Training, das wir haben, müssen sie keine Investitionen in eigene Hardware tätigen. Sie müssen keine Experten bei sich vor Ort aufbauen für das Thema, sondern sie können unser Know-how an der Stelle nutzen, was noch mit den zukommt. Das eine ist, einen PC einzusparen. Ganz oft ist aber auch wichtig, schon vor Ort Vorentscheidungen zu treffen, damit später Entscheidungen in der Anlage schneller laufen. Also ein klassisches Beispiel wäre diese i.O. / n.i.O. Entscheidung. Da muss nur zurückkommen: Okay, das Teil ist in Ordnung oder es ist nicht in Ordnung. Führe ich es einem weiteren teuren Arbeitsschritt zu oder werfe ich es einfach aus. Da muss man bisher mit einer klassischen Industriekamera viele Bilddaten über lange Kabelleitung übertragen. Das ist alles Rechenzeit. Ich kann die Taktzahl erhöhen. Das ist ein typischer Business Case als Anwender. Wenn ich eine Entscheidung an der Edge mach, kann ich meist davon ausgehen, dass sich die Taktung meiner Maschine erhöhen kann, weil ich schon viel schneller, viel früher zu Entscheidungen komme.
 
Ich glaube, das, was du gerade gesagt hast mit den Ressourcen, ist auch ein wichtiger Punkt, weil ja gerade auch die Fachkompetenzen für diese Themen meistens nicht in House sind – vor allem beim Mittelstand. Und da ist es natürlich extrem wertvoll, die Kompetenzen über die Partner zu haben, die diese mitbringen und dann auch ganzheitlich liefern. Auch in der Konstellation, wie ihr jetzt unterwegs seid. Wir haben jetzt verschiedene Zuhörer aus ganz unterschiedlichen Bereichen. Es gibt natürlich jetzt nicht nur diesen Produktions-Use-Case, sag ich mal, sondern auch andere auch, wo verschiedenste Bildverarbeitung zum Einsatz kommt. Patrick, was glaubst du, wie ist dieser Use Case jetzt übertragbar? Mit welchen Kunden seid ihr dann noch unterwegs? Vielleicht kannst du uns ja mal so ein bisschen Einblick geben, wie die sich dieser Use Case jetzt auch auf andere übertragen lässt.
Patrick
Wenn wir jetzt auf das Pick and Place zurückkommen, ist er weit übertragbar in unterschiedlichste Applikationen rein. Weil neben dem Werkstück, das Alexey jetzt trainiert hat, kann ich auch andere Werkstücke trainieren und das Thema KI ist generell immer übertragbar. Ich kann auch andere Objekte klassifizieren. Dazu brauche ich Bilddaten und muss trainieren. Es gibt aber noch ganz, ganz viele andere Möglichkeiten, um die KI einzusetzen und auch bisherige Lösungen vielleicht besser und effizienter zu machen. Alexey hat es gesagt: 99,9 Prozent in der Qualitätskontrolle. Ich kann meine Mitarbeiter viel effektiver einsetzen, vielleicht an viel höherwertigen Stellen, indem ich monotone Arbeit durch Roboter ersetze. Also ich bin jemand, der lässt sich immer ganz gern inspirieren. Und wir haben bei uns auf der Website einen neuen Bereich, einen KI- Marktplatz, die visionbay, und dort bieten wir so unterschiedlichste Lösungen an. Da kann man einfach mal draufgehen und durchstöbern. Dort findet man dann Lösungsansätze wie die Pick and Place Applikationen, aber auch andere Logistik-Applikationen, Recycling-Applikationen. Wir haben z. B. einen Lösungsanbieter, der detektiert Fremdstoffe in Kompost, im Müll. Er sieht, wenn da was drin ist, das da nicht reingehört. Das kann ich natürlich in ganz viele Use Cases übertragen. Wo muss ich Fremdstoffe erkennen, um sie später auszusortieren? Und ich glaube, im visionbay findet man eine Lösung, wenn man da gerade auf der Suche ist. Ich bin mir sicher, dass man da eine findet.
 
Das heißt aber auch im Umkehrschluss, wenn ich jetzt Software-Entwickler bin und mit Bildverarbeitung zu tun habe, dass ich die Möglichkeit habe, meinen KI-Algorithmus auf euren Marktplatz zu stellen, um wiederum gemeinschaftlich weiteren Kunden in den Prozessen zu helfen, oder? Oder für wen ist dieser KI-Marktplatz vor allem interessant?
Patrick
Wie du gesagt hast: für beide Seiten. Zum einen für den Anwender, um eine Lösung für sich zu finden, aber auch für den Entwickler, der sagt: Hey, ich habe hier eine coole Lösung mit KI gemacht. Es läuft auf einer IDS NXT Kamera. Ich stelle das bei der IDS in den Marktplatz. Dann einfach mit uns in Kontakt treten, dann läuft alles weitere.
 
Ich glaube, da gibt’s wahnsinnig viele spannende Applikationen, vielleicht sogar auch von produzierenden Betrieben, die solche Themen auch suchen oder vielleicht Maschinenbauer, für die das sehr interessant ist. Vielleicht letzte Frage an dich, Alexey. Wenn wir jetzt über diese verschiedenen Applikationen beim Kunden sprechen oder auch Use Cases, hast du ja noch Ergänzungen, wo du sagst, dass es auch ein spannender Case, da sind wir mit einem Kunden dran oder einfach noch weitere Ideen, wie sich diese Use Cases jetzt übertragen lassen oder was ihr mit Kunden noch macht?
Alexey
Wie Patrick schon gesagt hat, die Möglichkeiten haben keine Grenzen. Was wir im Grunde machen, wir detektieren Positionen von Objekten und Orientierung von Objekten. Das können Werkzeuge sein, das können auch zum Beispiel Boote im Hafen sein oder irgendwelche Peperoni auf eine Pizza. Also alle mögliche Sachen kann man mit KI detektieren und alle möglichen Arbeiten danach erledigen.
 
Sehr schön, dann kann man ja einfach mal in den KI-Marktplatz rein klicken und schauen, was ihr für spannende Lösungen habt. Dann würde ich euch an der Stelle schon mal danken für die Zeit. Danke für die spannenden Insights in diese einzelnen Prozesse.
Patrick
Ich hätte noch eine kleine Anmerkung. Was ich wichtig finde im Umfeld von KI, ist wirklich out of the box zu denken – auch in der klassischen Bildverarbeitung. Betrachtet man eine Problematik aus dem Sichtpunkt von künstlicher Intelligenz, kommt man auf ganz neue Lösungswege. Also mussten wir auch erst mal lernen, wirklich Dinge neu zu betrachten und auch bekanntes Wissen mal auf die Seite zu legen und KI als eine Lösungsgrundlage zu nehmen. Da eröffnen sich ganz neue Wege, Dinge, die man vorher nicht für möglich gehalten hat, lassen sich auf einmal lösen.
 
Perfekt. Das war doch eigentlich ein schönes Schlusswort und auch ein schöner Appell an den einen oder anderen da draußen, der jetzt gerade an diesen Projekten arbeitet. Ich danke euch für die Session!

Podcast Folge

Interviewpartner

Patrick Schick

Alexey Pavlov

Gastgeberin

Fragen?