Refine
Document Type
- Book (1)
- Part of a Book (3)
- Conference Proceeding (4)
- Contribution to a Periodical (12)
- Lecture (1)
- Internet Paper (1)
- Report (2)
- Working Paper (6)
Language
- German (22)
- English (5)
- Multiple languages (3)
Is part of the Bibliography
- no (30)
Keywords
- 01 (2)
- 02 (5)
- 03 (1)
- Anomaly detection (1)
- Auftragsabwicklung (1)
- Blockchain (1)
- CPSL (1)
- Crisis management (1)
- DaFuER (4)
- Data Quality (1)
- Data set (1)
- Daten (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenauswertung (1)
- Datenfusion (5)
- Datengestützt (1)
- Datenqualität (3)
- Datenräume (1)
- Datensouveränität (2)
- Deviation identification strategies (1)
- Digitalisierung (1)
- EPCIS (2)
- End-2-End-Transparenz (1)
- Entscheidungsfusion (1)
- Event Data (1)
- FIR-Leitfaden (1)
- Fallstudien (1)
- GAIA-X (1)
- Humanitarian logistics (1)
- Incorrect Data (1)
- Industrie 4.0 (1)
- Insufficient Data (1)
- KI (1)
- Knowledge representation (1)
- Konferenz (1)
- Kongress (1)
- Krisen (1)
- Krisenmanagement (1)
- Künstliche Intelligenz (1)
- Lieferkette (1)
- Marktspiegel (1)
- Marktübersicht (1)
- Operations planning (1)
- PPC (1)
- Process-Mining (1)
- Production Planning (1)
- Produktionsprozess (1)
- Prozessanalyse (1)
- Reifegradmodell (2)
- Resilienz (1)
- Resource deployment (1)
- Risiko-Assessment (1)
- Risikomanagement (2)
- Rückmeldedaten (2)
- SCEM (1)
- SCM (3)
- SV7291 (1)
- SV7315 (1)
- Scenario pattern (1)
- Scenario technique (1)
- Software (2)
- Studie (2)
- Supply Chain Event Management (2)
- Supply Chain Management (1)
- Supply chain (1)
- Supply chain event management (1)
- Supply chain management (2)
- Supply-Chain (1)
- Supply-Chain-Design (1)
- Supply-Chain-Event-Management (1)
- Supply-Chain-Management (9)
- Supply-Chain-Partner (1)
- Supply-Chain-Risiko-Management (1)
- Supply-Chain-Risk-Management (1)
- Technologieauswahl (1)
- Tracking & Tracing (2)
- Typification (1)
- U1032 (1)
- URANOS-X (1)
- Vorgehen (1)
- betriebliche Rückmeldedaten (1)
- betriebliche Rückmeldung (1)
- incorrect data (1)
- rev (4)
- unternehmensübergreifender Datenaustausch (1)
Institute
DaFuER - Anwendung der Datenfusion bei der Erfassung und Speicherung
betrieblicher Rückmeldedaten
(2021)
Zentrale Herausforderung der Globalisierung und Digitalisierung für produzierende Unternehmen in Deutschland sind steigende Kundenanforderungen nach individuelleren Produkten bei gleichzeitig stetig kürzer werdenden Lieferzeiten. Insbesondere für kleine und mittlere Unternehmen steigt der Kosten- und Innovationsdruck durch wachsende Konkurrenz aus Niedriglohnländern und einen schrumpfen-den Technologievorsprung. Aus diesen Herausforderungen entsteht die Anforderung einer echtzeitfähigen und effizienten Produktionsplanung und -steuerung, die eine fundierte und kurzfristige Entscheidungsfindung erlaubt. Grundlage für eine leistungsstarke Produktionsplanung und -steuerung ist eine hohe Informationsverfügbarkeit. Das allein ist jedoch keine hinreichende Bedingung für eine effiziente Produktionsplanung und -steuerung, da nur bei einer ausreichenden Datenqualität eine zuverlässige Entscheidungsfindung möglich ist. Ferner bieten die zunehmende Digitalisierung und Vernetzung steigendes Nutzenpotenzial für datenbasierte Wertschöpfung, was die Relevanz einer hohen Datenqualität zusätzlich verstärkt. Zentrale Herausforderung der Steigerung der Datenqualität sind die Investitionskosten der Implementierung von entsprechenden Maßnahmen. Dabei zeichnen sich kleine und mittlere Unternehmen (KMU) insbesondere durch eine beschränkte Investitionsfähigkeit aus.
Auf die Erhöhung der Datenqualität eines aggregierten Datensatzes zielt die Datenfusion durch Kombination verschiedener Datenquellen ab. Die unterschiedlichsten Methoden der Datenfusion werden bereits seit längerem in nicht produktionsnahen Bereichen an-gewendet. Das Forschungsprojekt „DaFuER“ unterstützt bei dem Transfer der Methoden in das Produktionsumfeld. Hierbei werden vor allem kleine und mittlere Unternehmen bei der Optimierung ihrer Datenqualität angeleitet, indem eine transparente Entscheidungsunterstützung u. a. durch einen Leitfaden zur Datenfusion und ein Online-Tool ermöglicht wird.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
Based on the increasingly complex value creation networks, more and more event-based systems are being used for decision support. One example of a category of event-based systems is supply chain event management. The aim is to enable the best possible reaction to critical exceptional events based on event data. The central element is the event, which represents the information basis for mapping and matching the process flows in the event-based systems. However, since the data quality is insufficient in numerous application cases and the identification of incorrect data in supply chain event management is considered in the literature, this paper deals with the theoretical derivation of the necessary data attributes for the identification of incorrect event data. In particular, the types of errors that require complex identification strategies are considered. Accordingly, the relevant existing error types of event data are specified in subtypes in this paper. Subsequently, the necessary information requirements and information available regarding identification are considered using a GAP analysis. Based on this gap, the necessary data attributes can then be derived. Finally, an approach is presented that enables the generation of the complete data set. This serves as a basis for the recognition and filtering out of erroneous events in contrast to standard and exception events.
Schwerwiegende Gesundheits- und Wirtschaftskrisen wie die Weltfinanzkrise (ab 2007) oder die Covid-19-Pandemie im Jahr 2020 haben aufgezeigt, in welch turbulentem Umfeld sich die globalisierte Welt heutzutage befindet und wie schnell gewohnte Abläufe in Wertschöpfungsketten unterbrochen und angepasst werden müssen. Die alltäglichen Anforderungen in dem sich immer schneller wandelnden digitalen Zeitalter wachsen stetig und sind komplexer denn je.
Unternehmen sind angehalten, immer kurzzyklischer auf sich ändernde
Bedingungen und Störungen zu reagieren und strategische Entscheidüngen
zur Gestaltung von Wertschöpfungsketten zu treffen. Nur mithilfe
einer umfassenden Datengrundlage und -kommunikation kann die strategische Planung der Supply-Chain effektiv erfolgen und somit die benötigte Robustheit und Agilität ermöglicht werden.
GAIA-X-Reifegradmodell
(2024)
Um die wachsenden Kundenanforderungen und die damit verbundene Komplexitätssteigerung der aktuellen Herausforderungen zu bewältigen, öffnen Unternehmen ihre Wertschöpfungsketten, reduzieren ihre Fertigungstiefe und gehen zunehmend Kooperationen ein. Der unternehmensübergreifende Datenaustausch entlang der Supply-Chain wird damit zu einer Schlüsselkomponente für die Wettbewerbsfähigkeit und die Realisierung kundenspezifischer Lösungen. Aus diesem Grund hat die Europäische Union das Projekt GAIA-X ins Leben gerufen, dessen Ziel es ist, die nächste Generation der Dateninfrastruktur für Europa und seine Unternehmen zu schaffen. Das GAIA-X-Reifegradmodell bietet einen Ansatz zur Einordnung von Unternehmen in verschiedene Entwicklungsstufen und liefert konkrete Anforderungen für die Weiterentwicklung entlang eines vorgegebenen Entwicklungspfades hin zu einem vollwertigen Teilnehmer an der föderierten GAIA-X-Dateninfrastruktur.
Dieser Artikel gibt einen einführenden Überblick über die Ziele des Forschungsprojekts ‚DaFuER‘ und das Vorgehen in demselben. Ziel des Forschungsprojekts ist es, Methoden der Datenfusion zur Steigerung der Datenqualität im Kontext betrieblicher Rückmeldedaten anzuwenden. Hierzu soll im Vorhaben die Frage beantwortet werden, wie durch Ansätze der Datenfusion eine hinreichende Qualität von Rückmeldedaten in der Produktion kosteneffizient sichergestellt werden kann. Das IGF-Vorhaben 20579 N der Forschungsvereinigung FIRe. V. ander RWTHAachen, Campus-Boulevard 55, 52074 Aachen wird über die AiF im Rahmen des Programms zur Förderung der industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie (BMWi) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Mit dem Forschungsprojekt ‚DaFuER‘ sollten, mit Blick auf betriebliche Rückmeldedaten, Methoden der Datenfusion zur Steigerung der Datenqualität unter die Lupe genommen werden. Lesen Sie hier die wichtigsten Ergebnisse, die am Anwendungsfall in der Demonstrationsfabrik Aachen veranschaulicht werden.
Das Projekt ‚EDI-Multiply‘ ist der Beitrag des FIR an der RWTH Aachen und des Centers Integrated Business Applications im Cluster Smart Logistik auf dem RWTH Aachen Campus im EU-Projekt ‚MARKET4.0‘, das auf dem quelloffenen SCSN Kommunikationsstandard aufbaut. Ziel dieses Teilvorhabens ist es, einen Multiplikatoreffekt hinsichtlich potenzieller Geschäftsverbindungen zu erzielen. Anstatt einzelne Unternehmen direkt an die MARKET4.0-Plattform anzubinden, adressiert dieser Ansatz ganze Plattformen und ERP-Systeme. Mit der Anbindung des Konsortialpartners myOpenFactory Software GmbH beispielsweise erhalten über 1 300 Unternehmen der Fertigungsindustrie „auf einen Schlag“ die Möglichkeit, mit einer Vielzahl potenzieller Geschäftspartner elektronisch Daten auszutauschen. MARKET4.0 stellt hierbei die entsprechende E-Commerce-Plattform für den Verkauf und die Bereitstellung komplexer Industrieanlagen dar.
Besonders in Krisenzeiten haben sich souveräne Lieferketten als essenziell herausgestellt, um systemrelevante Prozesse störungsfrei gewährleisten zu können. Allerdings ähnelt keine Krise der anderen. Hochwasser oder eine Wirtschaftskrise unterscheiden sich signifikant von einer Pandemie, sodass hier verschiedene politische, aber auch wirtschaftliche Maßnahmen der beteiligten Akteure gefordert sind. Dennoch haben Krisen eines gemein: Die frühzeitige Risikobewertung sowie das gezielte Agieren sind zur Bewältigung einer Krise notwendig.
Im Forschungsprojekt ‚PAIRS (Privacy Aware, Intelligent and Resilient CrisiS Management)‘ wurde ein domänenübergreifender Ansatz gewählt, um auf Basis einer hybriden KI-Methodik Krisenszenarien identifizieren und deren Entwicklung antizipieren zu können. Zusätzlich unterstützt die angestrebte servicebasierte Plattform die Akteure bei der Krisenfrühwarnung, dem Krisenmonitoring und der Bewertung von Reaktionsstrategien. Dadurch werden sie in die Lage versetzt, schnell auf Krisensituationen zu reagieren und Maßnahmen einzuleiten, um so negative Wirkungen zu minimieren. Gleichzeitig ermöglicht der Plattformansatz den Zugang zu diversen und verteilten Datenquellen sowie die Interaktion und Kooperation zwischen verschiedenen Services.
Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke und in Zeiten sich ständig verändernder Rahmenbedingungen steigt für Unternehmen die Bedeutung einer resilienten Gestaltung ihrer Wertschöpfungsnetzwerke. Durch die hohe Vernetzung in einem Wertschöpfungsnetzwerk entsteht eine starke Abhängigkeit zwischen den einzelnen Akteuren. Störungen haben somit häufig nicht nur Auswirkungen auf einzelne Unternehmen, sondern betreffen verschiedene Akteure der Wertschöpfungsnetzwerke. Tritt nun eine Störung auf, kann sich diese im gesamten Netzwerk ausbreiten. Erst der konkrete Eintritt solcher Störungen im großen Umfang – wie zuletzt im Zuge der Corona-Pandemie oder der Blockierung des Suez-Kanals – führt Unternehmen regelmäßig dazu, sich mit ihren Wertschöpfungsnetzwerken auseinander zu setzen. Eine Möglichkeit zur Sicherung der Leistungsfähigkeit in einem volatilen Umfeld stellt der Aufbau von Resilienz dar. Insgesamt ist es hierbei das Ziel, Wertschöpfungsnetzwerke so zu gestalten, dass sie im Falle einer Störung möglichst wenig beeinträchtigt sind und schnell in den ursprünglichen oder einen besseren Zustand zurückkehren können.
Unvorhergesehene Effekte, wie beispielsweise die aktuelle Corona-Pandemie, können die Lieferkette eines Unternehmens maßgeblich beeinflussen. Die hochkomplexen Supply-Chains der heutigen Zeit stehen vor der Herausforderung, schnell und flexibel auf mögliche Störungen von außen zu reagieren. Ein ganzheitliches Supply-Chain- Risikomanagement hilft Ihnen bei der frühzeitigen Lokalisierung von Störungen und der Ableitung geeigneter Maßnahmen zur kurz- und langfristigen Stabilisierung der Lieferketten. Zu diesem Zweck haben wir vom FIR an der RWTH Aachen, aufbauend auf dem Industrie-4.0-Maturity-Index, ein cloudbasiertes Supply-Chain-Risiko-Assessment entwickelt, das durch den intuitiven Aufbau eine praxisorientierte Lösung im Bereich des Risikomanagements darstellt.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.
SCM-Software ist heute zur Unterstützung der übergreifenden Herstellabwicklung zwischen den Unternehmen bzw. Unternehmensstandorten etabliert. Der Blick in die Praxis verdeutlicht allerdings unterschiedlichste Leitideen, Anforderungsschwerpunkte und Lösungsansätze. Außerdem setzen die Softwareanbieter verschiedenste Branchenund Funktionsschwerpunkte, was die Vergleichbarkeit zusätzlich einschränkt. Der vorliegende Beitrag gibt einen Überblick über ein SCM-Funktionsmodell zur durchgängigen standortübergreifenden und -internen Herstellabwicklung zur Bewertung der verfügbaren SCM-Software.
Supply-Chain-Management 4.0
(2020)
Viele Unternehmen erhoffen sich enorme Wachstumschancen durch Digitalisierung, Vernetzung und neue Technologien. Daher ist der Reifegrad der Digitalisierung eines Unternehmens von besonderer Bedeutung, um den Status des Unternehmens zu überprüfen. Im Rahmen der acatech-Studie wurde ein Index entwickelt, um den Reifegrad von produzierenden Unternehmen zu bestimmen. Diese Bewertung berücksichtigt jedoch den Bereich des Lieferkettenmanagements nicht ausreichend. Infolgedessen müssen diesbezüglich weitere Merkmale entwickelt werden, um den Reifegrad der Digitalisierung innerhalb einer Lieferkette zu bestimmen. Der Schwerpunkt liegt auf Datenverarbeitung, Kommunikation, Schnittstellenarbeit und Sicherheit, Netzwerkzusammenarbeit und Änderungsmanagement.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
Besonders in den letzten Krisen konnte die Anfälligkeit unserer gesamten Wert-schöpfungsnetzwerke beobachtet werden. Auch, wenn sich alle Krisen im Detail fundamental unterscheiden, haben alle Eines gemeinsam: eine frühzeitige Risiko-bewertung sowie eine gezielte Reaktion sind zur Bewältigung einer Krise notwen-dig. Um dies zu ermöglichen, wird im Forschungsprojekt PAIRS (Privacy-Aware, In-telligent and Resilient CrisiS Management) eine szenariobasierte Krisenmanage-mentplattform entwickelt, in welcher auf Basis von hybriden KI-Methoden Krisen identifiziert und deren Entwicklung antizipiert werden können. Hierfür wurden ver-schiedene Anwendungsfälle erfasst und deren domänenübergreifenden Wechselwirkungen systematisch untersucht.
Due to shorter product life cycles and the increasing internationalization of competition, companies are confronted with increasing complexity in supply chain management. Event-based systems are used to reduce this complexity and to support employees' decisions. Such event-based systems include tracking & tracing systems on the one hand and supply chain event management on the other. Tracking & tracing systems only have the functions of monitoring and reporting deviations, whereas supply chain event management systems also function as simulation, control, and measurement. The central element connecting these systems is the event. It forms the information basis for mapping and matching the process sequences in the event-based systems. The events received from the supply chain partner form the basis for all downstream steps and must, therefore, contain the correct data. Since the data quality is insufficient in numerous use cases and incorrect data in supply chain event management is not considered in the literature, this paper deals with the description and typification of incorrect event data. Based on a systematic literature review, typical sources of errors in the acquisition and transmission of event data are discussed. The results are then applied to event data so that a typification of incorrect event types is possible. The results help to significantly improve event-based systems for use in practice by preventing incorrect reactions through the detection of incorrect event data.
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.