E-Scooter auf dem Grund des Rheins ausfindig machen? Dank autonomer Echtzeit-Unterwasserroboter ist das ab sofort kein Problem mehr. Auch verschollene Personen, Öl und Gas, alte Munition oder vermisste Fischereinetze können mithilfe intelligenter Roboter, Schallakustik und smarter Auswertungsverfahren einfacher und schneller gefunden werden – auch Fischpopulationen sind leicht gezählt. Objekterkennung (Unterwasser), Künstliche Intelligenz wie Computer Vision : Um diese Themen dreht sich die 53. Folge des IIoT Use Case Podcast.
Use Cases in diesem Podcast
Zusammenfassung der Podcastfolge
Stephan Schiffner (CTO, Steadforce) entwickelt mit Steadforce derartige digitale Lösungen und Plattformen. Sie sind skalierbar, sicher und nachhaltig – so wie die für Unterwasserexperten EvoLogics GmbH. Eine große Herausforderung in dieser Podcastfolge: Im Wasser ist nur eine Datenrate- und übertragung weniger Kilobits pro Sekunde möglich. Philipp Bannasch (Teamleiter Sensorintegration, EvoLogics) berichtet davon, wie die Herausforderungen der Datenübertragung gemeistert werden, wie die Steadforce-Lösung den Anwendern bei der Bildauswertung das Leben erleichtert und Workflows automatisiert werden. Wie das Ganze im Detail funktioniert, wird in dieser Podcastfolge auf den Punkt gebracht. Eher Lust zu lesen?
Kein Problem: Hier gibt’s den Use Case zum Nachlesen.
Übrigens: Der Use Case ist übertragbar und auch Überwasser anwendbar!
Wer kann davon profitieren? Unternehmen industrieübergreifend – Automotive, Chemie & Pharma, Metallverarbeitung, Bergbau etc.
Podcast Interview
Heute spreche ich mit Steadforce, dem Entwickler für skalierbare, sichere und nachhaltige digitale Plattformen zum Verbinden von Daten, Diensten und Geräten in Echtzeit mit der zugehörigen Analyse. Heute mit dabei: Ihr Kunde EvoLogics, der Experte für akustische Unterwassermodems. Was das Ganze mit der Datenübertragung nach Delfinart zu tun hat und in welchen innovativen Projekten Steadforce hier unterwegs ist, das erfahrt ihr in diesem Podcast.
Stephan, ich würde das Wort an dich übergeben. Kurz zur Vorstellung zu deiner Person und was ihr bei Steadforce vom Kerngeschäft her genau macht.
Der Use Case in der Praxis
Du hattest vorhin gesagt, man kann einiges von den Delfinen lernen. Sei es Störgeräusche oder Echos, die verarbeitet werden. Was kann man denn jetzt mit diesem Roboter unter Wasser alles erkennen?
Philipp
Sie haben natürlich optische Sensoren an Bord, wie Kameras, sodass es etwas ähnlich aussieht wie Überwasserfahrzeuge zum Untersuchen. Aber unter Wasser spielt die Akustik eine ganz große Rolle, auch akustische Sensoren. Da geht es dann um verschiedene Sonare, die versuchen, Bilder zu erzeugen, zum Beispiel von Unterwasserkarten. Als bildgebendes Verfahren ist dort das Seitensichtsonar das Wesentliche. Im Seitensichtsonar kann man viele Dinge erkennen, die auch mit dem Auge zu erkennen sind; das sieht auch ziemlich ähnlich aus. Wenn man sich Seitensichtsonarbilder anschaut, sehen einige Objekte schon sehr klar erkennbar aus. Aber es gibt natürlich auch große Unterschiede zu dem, wie ein normales Bild entsteht. Dinge werden sehr stark verzerrt, es fehlen viele Informationen, und vieles hängt davon ab, dass man den Sensor auf genau die richtige Art und Weise einsetzt – im richtigen Winkel, mit dem richtigen Abstand – und dass dann alles passt. Dann kann man auch sehr schöne Bilder bekommen.
Lösungen, Angebote und Services
Stephan, ihr seid der Experte dafür, die Daten aus den einzelnen Geräten oder aus den Robotern mit der Cloud oder mit einem System zu verbinden und diese im nächsten Schritt zu analysieren. Kannst du uns ein bisschen abholen, wie die Lösung insgesamt aussieht? Ihr habt ja, glaube ich, auch die ganzheitliche Cloud-Plattform, die ihr mitbringt? Wie funktioniert das in der Praxis?
Stephan
Wir haben im Prinzip verschiedene Komponenten in diesem Gesamtsystem. Philipp hat es ja schon ein bisschen angedeutet, das sind sehr große Datenmengen. Das heißt, das Modelltraining selber kann nicht auf dem Sonobot stattfinden, sondern dafür haben wir eine Infrastruktur aufgebaut, die in der Cloud läuft, die auch skalieren kann, damit man dann – weil ja auch mehrere Endkunden auf dieses Portal zugreifen wollen –mehrere verschiedene Modelle gleichzeitig trainieren kann. Die andere Baustelle ist, dass wir auf dem BOT selber das trainierte Modell zum Laufen bringen müssen, und da natürlich auch die Bilder verarbeiten, um die Informationen zu identifizieren – also wo könnte so ein gesuchtes Objekt sein? – und das dann wiederum übertragen in Richtung Ufer.
Ergebnisse, Geschäftsmodelle und Best Practices
Du hast mir die perfekte Überleitung gegeben. Smarter werden am Markt beziehungsweise diese Marktposition halten ist mein Stichwort. Ich wollte nämlich noch fragen, nach den Geschäftsmodellen beziehungsweise auch den Ergebnissen, vielleicht auch wirklich eine Business-Case-Betrachtung. Das interessiert auch immer viele Hörer. Kannst du uns da mal abholen, was für euch das neue Geschäftsmodell dahinter ist beziehungsweise ein Stück weit auch der Business Case? Was habt ihr davon unterm Strich?
Philipp
Das sind gleich mehrere Geschäftsmodelle, die sich da für uns auftun. Die eine Sache ist, dass das Fahrzeug grundsätzlich cleverer ist und verschiedene Aufgaben selbstständig erfüllen kann – was natürlich ein großer Vorsprung ist gegenüber der Konkurrenz an vielen Stellen. Wenn das Fahrzeug selbstständig bestimmte Objekte erkennen kann, verifizieren kann, den Kurs so setzen kann, dass es das wirklich analysiert, um dann zu sagen, das ist etwas, dann kann es schon viel, was zahlreiche andere Fahrzeuge nicht können. Damit ist es ein direktes Verkaufsargument für das Fahrzeug. Da geht es um vieles. Einerseits im Bereich der Personensuche, was natürlich auch schon ein breites Feld ist. Dann geht es um Sicherheitsaspekte, ökologische Aspekte: das Auffinden verschollener Fischernetze beispielsweise ist oft ein sehr großes Thema. Das Auffinden gefährlicher Gegenstände. Es gibt unglaublich viel an alter Munition und Gefahrenstoffen in Nord- und Ostsee und auch in unseren Binnengewässern, die man finden und räumen muss. Da ist momentan jede technische Entwicklung sehr willkommen, um dort einfach diese Gefahren langsam mal zu beseitigen, die immer drängender werden. Da sehen wir sehr viel Anwendungspotenzial.
Und man sieht auch in Bereichen, wie zum Beispiel Fischfarmen und Fischezählen und so weiter, dass das auch weit darüber hinaus wächst, als nur im Fahrzeug einzelne Objekte zu entdecken. Sondern dass das grundsätzlich eine Technologieentwicklung ist, die uns weiterhilft.
Übertragbarkeit, Skalierung und Nächste Schritte
Was ich in vielen Projekten sehe, ist das gefühlt von der Technologie her immer ein ähnlicher Ansatz. Zum Beispiel, ich würde diese Fischindustrie auch mal bei uns im Bereich Nahrungs- und Genussmittelindustrie mit reinzählen. Gefühlt, was ihr beschrieben habt, mit der Datenaufnahme: ihr fahrt raus auf dem Boot, diese Testdaten erst mal haben – Copy/Paste eigentlich das Gleiche in der Produktion, oder? Wenn ich solche Prozesse auch in anderen Bereichen habe, ist es ja immer ähnlich? Ich brauche Daten, die Daten müssen aufgenommen werden – dass sind immer ähnliche Szenarien, oder?
Stephan
Die Szenarien sind ähnlich. Die Herausforderung, das hängt natürlich schwer davon ab, was sind das für Bilder, was möchte ich mit denen tun? Von daher kann das natürlich unterschiedlich komplex sein. Aber das Konzept ist definitiv übertragbar, ja.