Refine
Document Type
- Book (1)
- Part of a Book (3)
- Conference Proceeding (4)
- Contribution to a Periodical (12)
- Lecture (1)
- Internet Paper (1)
- Report (2)
- Working Paper (6)
Language
- German (22)
- English (5)
- Multiple languages (3)
Is part of the Bibliography
- no (30)
Keywords
- 01 (2)
- 02 (5)
- 03 (1)
- Anomaly detection (1)
- Auftragsabwicklung (1)
- Blockchain (1)
- CPSL (1)
- Crisis management (1)
- DaFuER (4)
- Data Quality (1)
Institute
Based on the increasingly complex value creation networks, more and more event-based systems are being used for decision support. One example of a category of event-based systems is supply chain event management. The aim is to enable the best possible reaction to critical exceptional events based on event data. The central element is the event, which represents the information basis for mapping and matching the process flows in the event-based systems. However, since the data quality is insufficient in numerous application cases and the identification of incorrect data in supply chain event management is considered in the literature, this paper deals with the theoretical derivation of the necessary data attributes for the identification of incorrect event data. In particular, the types of errors that require complex identification strategies are considered. Accordingly, the relevant existing error types of event data are specified in subtypes in this paper. Subsequently, the necessary information requirements and information available regarding identification are considered using a GAP analysis. Based on this gap, the necessary data attributes can then be derived. Finally, an approach is presented that enables the generation of the complete data set. This serves as a basis for the recognition and filtering out of erroneous events in contrast to standard and exception events.
Nachhaltiges Wirtschaften und verantwortungsvoller Umgang mit Ressourcen und Umwelt haben in der deutschen Gesellschaft einen hohen Stellenwert erlangt. Durch eine bessere Produktrückverfolgung und höhere Transparenz in Supply-Chains wird ressourcenschonendere Wertschöpfung ermöglicht. Zusätzlich fordern Kunden eine Einsicht in die Lieferkette und wollen über Produktion und Herkunft der Produkte informiert werden. Die Blockchain als verteilte Datenbank mit außerordentlicher Datensicherheit, Verfügbarkeit von Informationen in Echtzeit im gesamten Netzwerk und hoher Verlässlichkeit bietet dabei die technologische Grundlage, die Transparenz in den Lieferketten zu erhöhen. So können Daten zu Emissionen, Arbeitsbedingungen, Materialherkunft und weiteren Nachhaltigkeitskriterien entlang der Lieferkette aufgenommen und verteilt werden.
Die Anforderungen von Anwendern und Lösungsanbietern an eine Blockchain-Applikation flossen in eine Referenzarchitektur für diese ein. Dabei wurden z. B. die Gestaltung von Schnittstellen, benötigte Daten und Zugangsrichtlinien definiert. Gemeinsam mit dem DIN wurden die Ergebnisse in eine Standardisierung überführt. Anschließend wurden Gestaltungsempfehlungen zur Integration einer Blockchain-Applikation abgeleitet und die Ergebnisse in Unternehmen validiert.
Die Referenzarchitektur dient der erleichterten Entwicklung und Implementierung von Blockchain-Applikationen und damit einer Reduzierung von Kosten, Risiken und Zeitaufwand für KMU. Dem Kunden wird ein besserer Zugang zu Informationen über die Herkunft seiner Produkte ermöglicht, um ökologisch sinnvolle und nachhaltige Kaufentscheidungen treffen zu können.
Durch die Globalisierung haben sich in den letzten Jahrzehnten überwiegend internationale und hochkomplexe Lieferketten entwickelt. Nationale und internationale Herausforderungen, wie beispielsweise der Brexit, die Corona-Pandemie, Handelskriege und Protektionismus oder auch verschiedene Naturkatastrophen haben in der Vergangenheit gezeigt, dass die Relevanz eines ganzheitlichen Supply-Chain-Risikomanagements durch den Anstieg der Komplexität in den Lieferketten stark gestiegen ist.
Dieser Artikel gibt einen einführenden Überblick über die Ziele des Forschungsprojekts ‚DaFuER‘ und das Vorgehen in demselben. Ziel des Forschungsprojekts ist es, Methoden der Datenfusion zur Steigerung der Datenqualität im Kontext betrieblicher Rückmeldedaten anzuwenden. Hierzu soll im Vorhaben die Frage beantwortet werden, wie durch Ansätze der Datenfusion eine hinreichende Qualität von Rückmeldedaten in der Produktion kosteneffizient sichergestellt werden kann. Das IGF-Vorhaben 20579 N der Forschungsvereinigung FIRe. V. ander RWTHAachen, Campus-Boulevard 55, 52074 Aachen wird über die AiF im Rahmen des Programms zur Förderung der industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie (BMWi) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Unvorhergesehene Effekte, wie beispielsweise die aktuelle Corona-Pandemie, können die Lieferkette eines Unternehmens maßgeblich beeinflussen. Die hochkomplexen Supply-Chains der heutigen Zeit stehen vor der Herausforderung, schnell und flexibel auf mögliche Störungen von außen zu reagieren. Ein ganzheitliches Supply-Chain- Risikomanagement hilft Ihnen bei der frühzeitigen Lokalisierung von Störungen und der Ableitung geeigneter Maßnahmen zur kurz- und langfristigen Stabilisierung der Lieferketten. Zu diesem Zweck haben wir vom FIR an der RWTH Aachen, aufbauend auf dem Industrie-4.0-Maturity-Index, ein cloudbasiertes Supply-Chain-Risiko-Assessment entwickelt, das durch den intuitiven Aufbau eine praxisorientierte Lösung im Bereich des Risikomanagements darstellt.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.