Refine
Document Type
- Book (1)
- Part of a Book (3)
- Conference Proceeding (4)
- Contribution to a Periodical (12)
- Lecture (1)
- Internet Paper (1)
- Report (2)
- Working Paper (6)
Language
- German (22)
- English (5)
- Multiple languages (3)
Is part of the Bibliography
- no (30)
Keywords
- 01 (2)
- 02 (5)
- 03 (1)
- Anomaly detection (1)
- Auftragsabwicklung (1)
- Blockchain (1)
- CPSL (1)
- Crisis management (1)
- DaFuER (4)
- Data Quality (1)
- Data set (1)
- Daten (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenauswertung (1)
- Datenfusion (5)
- Datengestützt (1)
- Datenqualität (3)
- Datenräume (1)
- Datensouveränität (2)
- Deviation identification strategies (1)
- Digitalisierung (1)
- EPCIS (2)
- End-2-End-Transparenz (1)
- Entscheidungsfusion (1)
- Event Data (1)
- FIR-Leitfaden (1)
- Fallstudien (1)
- GAIA-X (1)
- Humanitarian logistics (1)
- Incorrect Data (1)
- Industrie 4.0 (1)
- Insufficient Data (1)
- KI (1)
- Knowledge representation (1)
- Konferenz (1)
- Kongress (1)
- Krisen (1)
- Krisenmanagement (1)
- Künstliche Intelligenz (1)
- Lieferkette (1)
- Marktspiegel (1)
- Marktübersicht (1)
- Operations planning (1)
- PPC (1)
- Process-Mining (1)
- Production Planning (1)
- Produktionsprozess (1)
- Prozessanalyse (1)
- Reifegradmodell (2)
- Resilienz (1)
- Resource deployment (1)
- Risiko-Assessment (1)
- Risikomanagement (2)
- Rückmeldedaten (2)
- SCEM (1)
- SCM (3)
- SV7291 (1)
- SV7315 (1)
- Scenario pattern (1)
- Scenario technique (1)
- Software (2)
- Studie (2)
- Supply Chain Event Management (2)
- Supply Chain Management (1)
- Supply chain (1)
- Supply chain event management (1)
- Supply chain management (2)
- Supply-Chain (1)
- Supply-Chain-Design (1)
- Supply-Chain-Event-Management (1)
- Supply-Chain-Management (9)
- Supply-Chain-Partner (1)
- Supply-Chain-Risiko-Management (1)
- Supply-Chain-Risk-Management (1)
- Technologieauswahl (1)
- Tracking & Tracing (2)
- Typification (1)
- U1032 (1)
- URANOS-X (1)
- Vorgehen (1)
- betriebliche Rückmeldedaten (1)
- betriebliche Rückmeldung (1)
- incorrect data (1)
- rev (4)
- unternehmensübergreifender Datenaustausch (1)
Institute
- Produktionsmanagement (30) (remove)
Durch die Globalisierung haben sich in den letzten Jahrzehnten überwiegend internationale und hochkomplexe Lieferketten entwickelt. Nationale und internationale Herausforderungen, wie beispielsweise der Brexit, die Corona-Pandemie, Handelskriege und Protektionismus oder auch verschiedene Naturkatastrophen haben in der Vergangenheit gezeigt, dass die Relevanz eines ganzheitlichen Supply-Chain-Risikomanagements durch den Anstieg der Komplexität in den Lieferketten stark gestiegen ist.
Dieser Artikel gibt einen einführenden Überblick über die Ziele des Forschungsprojekts ‚DaFuER‘ und das Vorgehen in demselben. Ziel des Forschungsprojekts ist es, Methoden der Datenfusion zur Steigerung der Datenqualität im Kontext betrieblicher Rückmeldedaten anzuwenden. Hierzu soll im Vorhaben die Frage beantwortet werden, wie durch Ansätze der Datenfusion eine hinreichende Qualität von Rückmeldedaten in der Produktion kosteneffizient sichergestellt werden kann. Das IGF-Vorhaben 20579 N der Forschungsvereinigung FIRe. V. ander RWTHAachen, Campus-Boulevard 55, 52074 Aachen wird über die AiF im Rahmen des Programms zur Förderung der industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie (BMWi) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Unvorhergesehene Effekte, wie beispielsweise die aktuelle Corona-Pandemie, können die Lieferkette eines Unternehmens maßgeblich beeinflussen. Die hochkomplexen Supply-Chains der heutigen Zeit stehen vor der Herausforderung, schnell und flexibel auf mögliche Störungen von außen zu reagieren. Ein ganzheitliches Supply-Chain- Risikomanagement hilft Ihnen bei der frühzeitigen Lokalisierung von Störungen und der Ableitung geeigneter Maßnahmen zur kurz- und langfristigen Stabilisierung der Lieferketten. Zu diesem Zweck haben wir vom FIR an der RWTH Aachen, aufbauend auf dem Industrie-4.0-Maturity-Index, ein cloudbasiertes Supply-Chain-Risiko-Assessment entwickelt, das durch den intuitiven Aufbau eine praxisorientierte Lösung im Bereich des Risikomanagements darstellt.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Die andauernde Globalisierung stellt Unternehmen weiterhin vor erhebliche Herausforderungen. Während sich zum einen die Wettbewerbssituation verschärft, steigen zum anderen die Kundenansprüche. Um dem Kundenwunsch nach individuellen Produkten gerecht zu werden, differenzieren Unternehmen ihr Produktangebot. Gleichzeitig erlaubt die fortschreitende Vernetzung eine höhere Innovationsgeschwindigkeit, die u. a. eine Verkürzung der Produktlebenszyklen bewirkt. Dieser Anstieg an zeitgleich zu erbringenden Leistungen sorgt für immer komplexere Unternehmensprozesse und Wertschöpfungsketten. Auch die zunehmende Anzahl an Partnern und Dienstleistungen sowie deren beständiger Wechsel steigern die Komplexität und damit den Koordinationsbedarf in Supply-Chains. Dieser Aufwand nimmt dabei mit steigender Anzahl der Faktoren exponentiell zu. Darüber hinaus rufen die steigende Anzahl an IT-Systemen sowie deren Änderungsgeschwindigkeit hochkomplexe und dynamische Strukturen hervor. Insbesondere die wechselseitigen Beziehungen zwischen den genannten Einflussfaktoren führen zu einem intransparenten Gesamtsystem.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Due to shorter product life cycles and the increasing internationalization of competition, companies are confronted with increasing complexity in supply chain management. Event-based systems are used to reduce this complexity and to support employees' decisions. Such event-based systems include tracking & tracing systems on the one hand and supply chain event management on the other. Tracking & tracing systems only have the functions of monitoring and reporting deviations, whereas supply chain event management systems also function as simulation, control, and measurement. The central element connecting these systems is the event. It forms the information basis for mapping and matching the process sequences in the event-based systems. The events received from the supply chain partner form the basis for all downstream steps and must, therefore, contain the correct data. Since the data quality is insufficient in numerous use cases and incorrect data in supply chain event management is not considered in the literature, this paper deals with the description and typification of incorrect event data. Based on a systematic literature review, typical sources of errors in the acquisition and transmission of event data are discussed. The results are then applied to event data so that a typification of incorrect event types is possible. The results help to significantly improve event-based systems for use in practice by preventing incorrect reactions through the detection of incorrect event data.