Refine
Document Type
- Book (1)
- Part of a Book (3)
- Conference Proceeding (4)
- Contribution to a Periodical (12)
- Lecture (1)
- Internet Paper (1)
- Report (2)
- Working Paper (6)
Language
- German (22)
- English (5)
- Multiple languages (3)
Is part of the Bibliography
- no (30)
Keywords
- 01 (2)
- 02 (5)
- 03 (1)
- Anomaly detection (1)
- Auftragsabwicklung (1)
- Blockchain (1)
- CPSL (1)
- Crisis management (1)
- DaFuER (4)
- Data Quality (1)
Institute
- FIR e. V. an der RWTH Aachen (30) (remove)
Crises are becoming more and more frequent. Whether natural disasters, economic crises, political events, or a pandemic - the right action mitigates the impact. The PAIRS project plans to minimize the surprise effect of these and to recommend appropriate actions based on data using artificial intelligence (AI). This paper conceptualizes a cascading model based on scenario technique, which acts as the basic approach in the project. The long-term discipline of scenario technique is integrated into the discipline of crisis management to enable short-term and continuous crises management in an automated manner. For this purpose, a practical crisis definition is given and interpreted as a process. Then, a cascading model is derived in which crises are continuously thought through using the scenario technique and three types of observations are classified: Incidents, disturbances, and crises. The presented model is exemplified within a non-technical application of a use case in the context of humanitarian logistics and the COVID-19 pandemic. Furthermore, first technical insights from the field of AI are given in the form of a semantic description composing a knowledge graph. In summary, a conceptual model is presented to enable situation-based crisis management with automated scenario generation by combining the two disciplines of crisis management with scenario technique.
Crises pose significant short and long-term threats to companies. The research project PAIRS aims to strengthen the resilience of actors in the supply-chain, en-ergy, and healthcare sectors in crisis situations. The basis for this is the newly created potential in data exchange, which is leveraged by combining internal with external (company-)data, e.g. in the GAIA-X network. AI is then the key to iden-tifying the time of the crisis and deriving appropriate actions to deal with it. Therefore, crisis scenarios are generated, and risks are assessed. In this paper, the project fundamentals are discussed. This includes the development of a project definition of the term "crisis", which is based on literature research of various scientific disciplines (e.g. economics or political science), as well as interviews with professional and academic experts from different fields. Moreover, a specif-ic example from the supply-chain domain is introduced to illustrate the process of requirement identification.
Schwerwiegende Gesundheits- und Wirtschaftskrisen wie die Weltfinanzkrise (ab 2007) oder die Covid-19-Pandemie im Jahr 2020 haben aufgezeigt, in welch turbulentem Umfeld sich die globalisierte Welt heutzutage befindet und wie schnell gewohnte Abläufe in Wertschöpfungsketten unterbrochen und angepasst werden müssen. Die alltäglichen Anforderungen in dem sich immer schneller wandelnden digitalen Zeitalter wachsen stetig und sind komplexer denn je.
Unternehmen sind angehalten, immer kurzzyklischer auf sich ändernde
Bedingungen und Störungen zu reagieren und strategische Entscheidüngen
zur Gestaltung von Wertschöpfungsketten zu treffen. Nur mithilfe
einer umfassenden Datengrundlage und -kommunikation kann die strategische Planung der Supply-Chain effektiv erfolgen und somit die benötigte Robustheit und Agilität ermöglicht werden.
Due to shorter product life cycles and the increasing internationalization of competition, companies are confronted with increasing complexity in supply chain management. Event-based systems are used to reduce this complexity and to support employees' decisions. Such event-based systems include tracking & tracing systems on the one hand and supply chain event management on the other. Tracking & tracing systems only have the functions of monitoring and reporting deviations, whereas supply chain event management systems also function as simulation, control, and measurement. The central element connecting these systems is the event. It forms the information basis for mapping and matching the process sequences in the event-based systems. The events received from the supply chain partner form the basis for all downstream steps and must, therefore, contain the correct data. Since the data quality is insufficient in numerous use cases and incorrect data in supply chain event management is not considered in the literature, this paper deals with the description and typification of incorrect event data. Based on a systematic literature review, typical sources of errors in the acquisition and transmission of event data are discussed. The results are then applied to event data so that a typification of incorrect event types is possible. The results help to significantly improve event-based systems for use in practice by preventing incorrect reactions through the detection of incorrect event data.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Based on the increasingly complex value creation networks, more and more event-based systems are being used for decision support. One example of a category of event-based systems is supply chain event management. The aim is to enable the best possible reaction to critical exceptional events based on event data. The central element is the event, which represents the information basis for mapping and matching the process flows in the event-based systems. However, since the data quality is insufficient in numerous application cases and the identification of incorrect data in supply chain event management is considered in the literature, this paper deals with the theoretical derivation of the necessary data attributes for the identification of incorrect event data. In particular, the types of errors that require complex identification strategies are considered. Accordingly, the relevant existing error types of event data are specified in subtypes in this paper. Subsequently, the necessary information requirements and information available regarding identification are considered using a GAP analysis. Based on this gap, the necessary data attributes can then be derived. Finally, an approach is presented that enables the generation of the complete data set. This serves as a basis for the recognition and filtering out of erroneous events in contrast to standard and exception events.
DaFuER - Anwendung der Datenfusion bei der Erfassung und Speicherung
betrieblicher Rückmeldedaten
(2021)
Zentrale Herausforderung der Globalisierung und Digitalisierung für produzierende Unternehmen in Deutschland sind steigende Kundenanforderungen nach individuelleren Produkten bei gleichzeitig stetig kürzer werdenden Lieferzeiten. Insbesondere für kleine und mittlere Unternehmen steigt der Kosten- und Innovationsdruck durch wachsende Konkurrenz aus Niedriglohnländern und einen schrumpfen-den Technologievorsprung. Aus diesen Herausforderungen entsteht die Anforderung einer echtzeitfähigen und effizienten Produktionsplanung und -steuerung, die eine fundierte und kurzfristige Entscheidungsfindung erlaubt. Grundlage für eine leistungsstarke Produktionsplanung und -steuerung ist eine hohe Informationsverfügbarkeit. Das allein ist jedoch keine hinreichende Bedingung für eine effiziente Produktionsplanung und -steuerung, da nur bei einer ausreichenden Datenqualität eine zuverlässige Entscheidungsfindung möglich ist. Ferner bieten die zunehmende Digitalisierung und Vernetzung steigendes Nutzenpotenzial für datenbasierte Wertschöpfung, was die Relevanz einer hohen Datenqualität zusätzlich verstärkt. Zentrale Herausforderung der Steigerung der Datenqualität sind die Investitionskosten der Implementierung von entsprechenden Maßnahmen. Dabei zeichnen sich kleine und mittlere Unternehmen (KMU) insbesondere durch eine beschränkte Investitionsfähigkeit aus.
Auf die Erhöhung der Datenqualität eines aggregierten Datensatzes zielt die Datenfusion durch Kombination verschiedener Datenquellen ab. Die unterschiedlichsten Methoden der Datenfusion werden bereits seit längerem in nicht produktionsnahen Bereichen an-gewendet. Das Forschungsprojekt „DaFuER“ unterstützt bei dem Transfer der Methoden in das Produktionsumfeld. Hierbei werden vor allem kleine und mittlere Unternehmen bei der Optimierung ihrer Datenqualität angeleitet, indem eine transparente Entscheidungsunterstützung u. a. durch einen Leitfaden zur Datenfusion und ein Online-Tool ermöglicht wird.
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.