Information und Bildungsarbeit von und für die SAP-Community

Big Data aus Sensoren

Die Logistik mit ihren komplexen Lieferstrukturen ist prädestiniert für den Einsatz künstlicher Intelligenz. Welche Aufgaben sind möglich? E-3 sprach mit Björn Dunkel, Managing Director der GIB, die Software für die Intralogistik anbietet und mit Expertenwissen und Beratung kombiniert.
GIB
E-3 Magazin
19. April 2021
Interview: Inkonsistente Daten kosten schlicht Geld
avatar
avatar

KI ist in aller Munde und vor allem für die Industrie ein großes Zukunftsthema. Wie weit ist die Entwicklung von KI in Ihrem Geschäftsfeld, also der Intralogistik?

Björn Dunkel: Wenn wir uns das Supply Chain Management prinzipiell anschauen, dann gibt es in Teilbereichen schon sehr viel, wo wir über KI sprechen können. Zum Beispiel bei der Routenplanung, wo aufgrund von Staus plötzlich die Route geändert wird, weil eine vermeintlich längere Strecke jetzt die kürzere Fahrzeit bedeutet. Wir bei GIB befassen uns aber mit der internen Supply Chain, also allem, was die Intralogistik betrifft. Auch hier gibt es bereits Ansätze, wie beispielsweise Absatzprognosen durch den Einsatz künstlicher Intelligenz bessere und zuverlässigere Aussagen treffen können. Mithilfe eines künstlichen neuronalen Netzes kann eine Software heute aus Fehlern lernen, sodass sie im Zeitverlauf immer bessere Ergebnisse erzielt. Da sind wir sicherlich heute noch ein Stück weit von entfernt, aber schon auf einem guten Weg.

In welchem Teilbereich der Intralogistik können Sie sich den Einsatz von KI vorstellen oder arbeiten vielleicht sogar schon damit?


Dunkel: Bei GIB bieten wir durch die Ver­edelung des SAP-Standards eine auf die Supply Chain spezialisierte Software für Absatzplanung, Produktionsplanung, Kollaboration mit den Lieferanten, Materialbedarfsplanung, Bestandsmanagement und operative Disposition an. Gerade bei der Qualitätssicherung am Ende von Produktionsprozessen gibt es schon Ansätze für den Einbau von KI. Nämlich dort, wo über eine Bilderkennung zwischen Gut- und Schlechtteilen unterschieden wird. Durch ein automatisiertes Ausschlussverfahren gelangen nur Gutteile in die Weiterverarbeitung. Das ist ein großes Thema, weil dieses Ausschlussverfahren in vielen Betrieben heutzutage immer noch manuell abläuft. Die Kopplung von 3D-Bilderkennung und künstlichen neuronalen Netzen bietet hier beispielsweise massive Optimierungsmöglichkeiten in der Qualitätssicherung. So können NIO-Teile direkt im Produktionsprozess ohne menschliches Zutun geprüft und automatisiert dem nächsten Produktionsschritt zugeordnet werden. Damit werden potenzielle Fehlerquellen eliminiert, der Prozess zeitlich gestrafft und die Produktion fehlerhafter Teile umgehend erkannt.

Big data aus sensoren
Managing Director Björn Dunkel bei GIB lädt zu den GIB Success Days 2021 ein und stand vorab dem E-3 Magazin für ein Exklusivinterview zur Verfügung: Big Data und KI optimieren SCM zur
Suppy Chain Excellence.

Qualitätssicherung wäre demnach ein Einsatzbereich von KI. Wo setzen Sie bei GIB schon ganz konkret Berechnungen auf Basis neuronaler Netze ein?

Dunkel: Wir stehen mit dem Einsatz von KI in unserer Software noch ganz am Anfang. Und tatsächlich ist es das erste Mal, dass wir im Umfeld unserer Supply-Chain-Lösung eine echte KI einsetzen, die fähig ist, durch ein Anlernen über neuronale Netze einen exakten Sicherheitsbestand zu ermitteln. Jetzt muss sich das System allerdings erst mal im echten Einsatz bewähren. Erst dann sehen wir, ob unsere KI auch im echten Leben funktioniert. Wir arbeiten aber bereits an weiteren Einsatzmöglichkeiten für KI. Ein Entwicklerteam forscht bereits nach nutzenspendenden Einsatzmöglichkeiten in der Absatzprognose.

Stichwort Big Data: Über den Einsatz von Sensorik werden heute gigantische Datenmengen generiert. Was geschieht damit?

Dunkel: Big Data ist natürlich nicht das Ziel, sondern maximal Mittel zum Zweck. Im Falle des Einsatzes von KI insofern ein Segen, als eine KI nur dann erfolgreich arbeitet, wenn sie mit sehr vielen Daten und Informationen gefüttert wird. Beim Lernprozess gilt tatsächlich: „Viel hilft viel“, zumindest, wenn die formulierte Fragestellung richtig war und die Algorithmen gut funktionieren. Dass wir heute in der Lage sind, diese gigantischen Datenmengen nicht nur zu erheben, sondern auch zu speichern und für die Weiterverwendung verfügbar zu machen, das ist der Raketenantrieb, der den Einsatz von neuronalen Netzen richtig ins Laufen gebracht hat. Was geschieht also mit den Sensordaten, die in der Produktionsebene gesammelt werden?

Wie löste man die Herausforderung bislang?


Dunkel: Bislang war die Auswertung der­selben eher maschinennah. Das heißt, der Gesundheitszustand der Maschine konnte am System, im Werk abgelesen werden. Hier herrschte eine strikte Trennung zwischen OT und IT, also zwischen Produktion und Geschäftsprozesssteuerung. Bessere Sicherheitskonzepte und -technologien haben mehr und mehr zu einer Öffnung der Produktions-IT geführt, nicht zuletzt auch deshalb, weil die Digitalisierung dies erforderlich macht und die Vorteile einer vertikalen Vernetzung der Supply-Chain-Prozesse einen enormen Wettbewerbsvorteil bieten. Wir bei GIB haben eine Lösung entwickelt, die in der Lage ist, aggregierte Sensor-Informationen in das ERP-System zu bringen. ­Damit digitalisieren wir die Geschäftsprozesse nicht nur horizontal entlang der Wertschöpfungskette, sondern sind auch in der Lage, die Produktionsebene digital abzubilden. Ich bin mir sicher, dass der gezielte Einsatz von KI gerade bei der sinnvollen Nutzung von Big Data einen entscheidenden Erfolgsfaktor darstellen wird.

Wie wollen Sie denn Big Data mithilfe von KI besser nutzen?


Dunkel: Daten ergeben nur einen Sinn, wenn man sie in einen Kontext setzt. Wenn ich durch die Fabrik laufe, dann möchte ich sehen, was in der ERP-Ebene geplant worden ist, und proaktiv durch ein Endgerät wie etwa ein Handy darauf hingewiesen werden, dass an der Maschine, vor der ich stehe, die Produktivität besonders hoch ist oder besonders niedrig ist. Aber diese Information allein nützt mir noch nichts, sondern ich muss sie in einen Kontext setzen. Es gibt in den Massendaten, die die Sensoren sammeln, Angaben zu Parametern, die meine Produktion beeinflussen können, so wie der Luftdruck, die Temperatur in der Halle oder die Luftfeuchtigkeit. Und wenn ich das jetzt kontextualisiere, weiß ich, welche Aufträge auf dieser Maschine zu der Zeit gelaufen sind. Ich weiß, welche Auslastung die Maschine hatte, welche Artikel da drauf gefertigt worden sind. Und wenn ich immer wieder feststelle, dass zu einem gewissen Zeitpunkt irgendwie Qualitätsprobleme auftreten, kann ich mir die Daten ansehen, die in gleicher Zeit auf der Shopfloor-Ebene angefallen sind.

Was kann der Anwender daraus schließen?


Dunkel: Daraus lassen sich Ableitungen treffen. Mit Rechenschieber und Bleistift lassen sich solche Ableitungen und Zusammenhänge nicht verarbeiten. Es gibt zu viele Variablen, die sich alle gegenseitig beeinflussen. Eine KI könnte hier die Lösung sein. Die KI erkennt Muster und Korrelationen, bewertet die Situation in ihrer Gesamtheit und liefert bestmögliche Lösungen für den jeweiligen Adressaten, zum Beispiel für die beste Produktionsreihenfolge in der gegebenen Situation. Insgesamt ist die Kontextualisierung ein zentraler Punkt bei der Optimierung der Intralogistik. Wir nutzen gern den Ausdruck CLUI, der für context based, location based und user based information steht. Unser Ziel ist es also, die richtigen Infos richtig zu adressieren, und zwar genau dort, wo und wann man sie braucht.

Die Produktionsplanung kann also durch Big Data und KI optimiert werden?


Dunkel: Ja genau. Über Sensorik stehen unglaublich viele Daten zur Verfügung. Das heißt, wir haben einen Datenpool, den wir nutzen können. KI trifft automatisiert die Entscheidung, welcher Produktmix mit der für heute prognostizierten Temperatur, Luftfeuchtigkeit oder anderen Parametern der optimale ist. So kann die Produktion von Schlechtteilen deutlich reduziert werden. Das sind Intelligenzen, wo wir gar nicht mehr so weit davon entfernt sind, weil diese Paarung an Know-how bereits da ist.

Wachsen so OT- und IT-Ebene zusammen?


Dunkel: Das kann man so sagen. Wir sprechen in diesem Zusammenhang gern vom „Y-Weg“, wir führen Operation Technology und Information Technology in einem System zusammen. Natürlich können nicht alle Shopfloor-Daten ins ERP-System eingespeist werden. Die Terabytes an Datenmaterial würden jedes ERP-System sprengen. Die Kunst liegt darin, auszuwählen, welche Daten für die digitale Abbildung der Produktionsebene im ERP eine Rolle spielen; was ist also nötig, um den „digital twin“ zum Leben zu erwecken. Diese Daten ziehen wir dann in den Masse-Datenspeicher und können ihn später für Auswertungen und Interpretationen nutzen, zum Beispiel mittels KI.

Ist es für Sie denkbar, dass in der Zukunft dank KI ein Lager selbst seine Bestellungen an die Lieferanten sendet?


Dunkel: Ja, absolut. Unser Tool Vendor Managed Inventory, VMI, geht als digitale Kopplung an den Lieferanten schon in die richtige Richtung. Man mag es gar nicht glauben, aber 90 Prozent der B2B-Bestellungen an Lieferanten laufen heute immer noch über eine E-Mail. Das heißt, immer erst dann, wenn eine E-Mail kommt, weiß er, was der Kunde von ihm eigentlich braucht. Unsere Vendor-Managed-Inventory-Lösung schafft Transparenz und Planbarkeit für den Lieferanten und entlastet gleichzeitig den Kunden in seiner Bedarfsplanung. So kann der Lieferant jederzeit alle für ihn relevanten Informationen einsehen und damit planen, zum Beispiel welche Lieferabrufe geplant sind und welche Bestände bald aufgebraucht sein werden. Ein weiterer positiver Effekt ist, dass der Lieferant damit seine eigenen Prozesse wirtschaftlicher und kostengünstiger gestalten kann. Das wiederum schlägt sich nicht selten positiv auf die Konditionen zum Abnehmer nieder.

Ist also der Meldebestand entscheidend?


Dunkel: Wenn wir also unsere bestehende VMI-Lösung dahingehend unter die Lupe nehmen, wo KI sinnvoll eingesetzt werden könnte, dann wäre der Meldebestand sicher ein guter Ansatzpunkt. Bezogen auf unser Klimabeispiel von vorhin, könnten die Erfahrungswerte aus der Vergangenheit mit den externen Faktoren, wie Luftfeuchtigkeit, Druck und Temperatur, in Zusammenhang gebracht werden. Eine schlaue KI bewertet die aktuelle Situation, empfiehlt eine angepasste „Rezeptur“ für die Produktion und löst rechtzeitig den erforderlichen Lieferavis beim besten Lieferanten aus.

Kommen wir durch den Einsatz von KI der perfekten Lieferkette ein bisschen näher?


Dunkel: Das ist in der Tat unser Ziel. Wenn wir beispielsweise das Indikatorensystem unserer Supply-Chain-Excellence-Lösung, SCX, betrachten, dann geben wir dem Supply Chain Manager eine zentrale Kennzahl an die Hand, die ihm auf einen Blick verrät, wie gut die Prozesse in seiner Supply Chain sind. Diese Kennzahl fußt natürlich auf einer Vielzahl von Key Performance Indices, die wiederum auf dem SAP Data Core basieren, also Big Data. Aktuell wird unser Supply-Chain-Bewertungssystem durch viele komplexe Algorithmen gestaltet und da wir immer mehr Intelligenz und somit immer mehr Kennzahlen in die Betrachtung einfließen lassen, steigt auch die Komplexität des Systems enorm an. Wir werden mit dieser klassischen Art der Programmierung irgendwann an unsere Grenzen stoßen. Deshalb werden wir zukünftig einen Fokus darauf legen, hier mit künst­licher Intelligenz ans Werk zu gehen.

https://e3mag.com/partners/gib-sales-development-gmbh/ ‎
avatar
GIB

GIB Sales & Development GmbH, Martinshardt 19, 57074 Siegen


avatar
E-3 Magazin

Information und Bildungsarbeit von und für die SAP-Community.


Schreibe einen Kommentar

Die Arbeit an der SAP-Basis ist entscheidend für die erfolgreiche S/4-Conversion. 

Damit bekommt das sogenannte Competence Center bei den SAP-Bestandskunden strategische Bedeutung. Unhabhängig vom Betriebsmodell eines S/4 Hana sind Themen wie Automatisierung, Monitoring, Security, Application Lifecycle Management und Datenmanagement die Basis für den operativen S/4-Betrieb.

Zum zweiten Mal bereits veranstaltet das E3-Magazin in Salzburg einen Summit für die SAP-Community, um sich über alle Aspekte der S/4-Hana-Basisarbeit umfassend zu informieren. Alle Informationen zum Event finden Sie hier:

SAP Competence Center Summit 2024

Veranstaltungsort

Eventraum, FourSide Hotel Salzburg,
Am Messezentrum 2,
A-5020 Salzburg

Veranstaltungsdatum

5. und 6. Juni 2024

Reguläres Ticket:

€ 590 exkl. USt.

Veranstaltungsort

Eventraum, Hotel Hilton Heidelberg,
Kurfürstenanlage 1,
69115 Heidelberg

Veranstaltungsdatum

28. und 29. Februar 2024

Tickets

Regular Ticket
EUR 590 exkl. USt
Veranstalter ist das E3-Magazin des Verlags B4Bmedia.net AG. Die Vorträge werden von einer Ausstellung ausgewählter SAP-Partner begleitet. Der Ticketpreis beinhaltet den Besuch aller Vorträge des Steampunk und BTP Summit 2024, den Besuch des Ausstellungsbereichs, die Teilnahme an der Abendveranstaltung sowie die Verpflegung während des offiziellen Programms. Das Vortragsprogramm und die Liste der Aussteller und Sponsoren (SAP-Partner) wird zeitnah auf dieser Website veröffentlicht.