UdZForschung 1/2020

18 UdZForschung – Unternehmen der Zukunft 1/2020 FIR-Forschungsprojekte – Leitthema: Industrie & Umwelt ändert. Anhand der Belohnungsfunktion wird die Güte der Handlung bewertet. Das System wird dann darauf trainiert, immer die Handlung mit der größten Belohnung zu wählen. Im gegebenen Anwendungsfall können die Störungen als Zustände und die Gegenmaßnahmen als Handlungen gesehen werden. Das Recommender-System empfiehlt die drei Gegenmaßnahmen mit dem höchsten Belohnungswert. Bezogen auf das oben aufgeführte Beispiel würde in diesem Fall jede mögliche Gegenmaßnahme durch das System simuliert und anhand der Belohnungsfunktion bewertet werden. Jene könnte sich beispielsweise an der ver- ursachten Verzögerung und an der Anzahl verspäteter Aufträge orientieren. Die Informationen werden dann an die Benutzeroberfläche weitergegeben und entsprechend visualisiert (siehe Bild 2). Dargestellt werden demnach alle Pro- zesse, bei denen eine Störung auftritt, sowie die Abweichung vom Soll-Zustand. Zu jeder Störung werden dem Nutzer bis zu drei Gegenmaßnahmen vorgeschla- gen. Die Entscheidung darüber, welche Gegenmaßnahme umgesetzt wird, liegt beim Nutzer. Im Nachgang kann der Nutzer die Effektivität der Maßnahme zurückmelden, sodass das System anhand dieser Daten fortlaufend trainiert werden kann. Weiterhin können dem System neue Gegenmaßnahmen zugespielt werden, so- dass auf diese Weise eine kontinuierliche Anpassung an das dynamische Umfeld der Produktionssteuerung möglich ist. Die Benutzerober fläche ist als Web- Applikation entwickelt, um eine mobile Anwendung zu gewährleisten. So kann der Nutzer unabhängig von seinem Standort auf die Daten zugreifen und im Falle einer Störung entsprechend eingreifen. Literatur Alpaydin, E.: Introduction to Machine Learning. Selected Papers of Lionel W. McKenzie. 2. Auflage. MIT Press, Cumberland [u. a.] 2016. Garcia, C. d. S; Meincheim, A; Faria Junior, E. R; Dallagassa, M. R; Sato, D. M. V; Carvalho, D. R; Santos, E. A. P; Scalabrin, E. E.: Process mining techniques and applications – A systematic map- ping study. In: Expert Systems with Applications 133(2019), S. 260 – 295. Leitão, P.: A holonic disturbance management architecture for flexible manufacturing systems. In: International Journal of Production Research 49(2011)5, S. 1269 – 1284. Meissner,J.P.:AdaptivesAbweichungs-management inderFertigungssteuerungbeiKleinserien,1.Auflage. Schriftenreihe Rationalisierung; Bd. 153. RHrsg.: G. Schuh.Apprimu,Aachen2017.–Zugl.:Aachen,Techn. Hochsch., Diss., 2017. Ning, X; Desrosiers, C; Karypis, G.: A Comprehensive Survey of Neighborhood-Based Recommendation Methods. In: Recommender Systems Handbook. Hrsg.: F. Ricci; L. Rokach; B. Shapira. Springer, Boston (MA) 2015, S. 37 – 76. Otterlo,M.van;Wiering,M.:ReinforcementLearning and Markov Decision Processes. In: Reinforcement Learning. Adaptation, Learning, and Optimization. Hrsg.: M. Wiering; M. van Otterlo. Springer, Berlin [u. a.] 2012, S. 3 – 42. Power, D. J.: Decision Support Systems: A Historical Overview.In:HandbookonDecisionSupportSystems; Bd.1:BasicThemes.Hrsg.:F.Burstein;C.W.Holsapple. Springer, Berlin [u. a.] 2008, S. 121 – 140. Bild 2: Benutzeroberfläche des Decision-Support-Systems (eigene Darstellung)

RkJQdWJsaXNoZXIy NzcyMw==