Refine
Document Type
- Part of a Book (3)
- Conference Proceeding (3)
- Working Paper (1)
Is part of the Bibliography
- no (7)
Keywords
- 02 (3)
- CPSL (1)
- Crisis management (1)
- Data Quality (1)
- Datenaustausch (1)
- Datensouveränität (1)
- EPCIS (1)
- End-2-End-Transparenz (1)
- Event Data (1)
- Fallstudien (1)
- Humanitarian logistics (1)
- Incorrect Data (1)
- Insufficient Data (1)
- KI (1)
- Knowledge representation (1)
- Konferenz (1)
- Kongress (1)
- Operations planning (1)
- PPC (1)
- Production Planning (1)
- Resource deployment (1)
- SCEM (1)
- Scenario pattern (1)
- Scenario technique (1)
- Studie (1)
- Supply Chain Event Management (2)
- Supply chain (1)
- Supply-Chain (1)
- Supply-Chain-Design (1)
- Supply-Chain-Management (2)
- Typification (1)
- rev (3)
Institute
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.
Due to shorter product life cycles and the increasing internationalization of competition, companies are confronted with increasing complexity in supply chain management. Event-based systems are used to reduce this complexity and to support employees' decisions. Such event-based systems include tracking & tracing systems on the one hand and supply chain event management on the other. Tracking & tracing systems only have the functions of monitoring and reporting deviations, whereas supply chain event management systems also function as simulation, control, and measurement. The central element connecting these systems is the event. It forms the information basis for mapping and matching the process sequences in the event-based systems. The events received from the supply chain partner form the basis for all downstream steps and must, therefore, contain the correct data. Since the data quality is insufficient in numerous use cases and incorrect data in supply chain event management is not considered in the literature, this paper deals with the description and typification of incorrect event data. Based on a systematic literature review, typical sources of errors in the acquisition and transmission of event data are discussed. The results are then applied to event data so that a typification of incorrect event types is possible. The results help to significantly improve event-based systems for use in practice by preventing incorrect reactions through the detection of incorrect event data.
Schwerwiegende Gesundheits- und Wirtschaftskrisen wie die Weltfinanzkrise (ab 2007) oder die Covid-19-Pandemie im Jahr 2020 haben aufgezeigt, in welch turbulentem Umfeld sich die globalisierte Welt heutzutage befindet und wie schnell gewohnte Abläufe in Wertschöpfungsketten unterbrochen und angepasst werden müssen. Die alltäglichen Anforderungen in dem sich immer schneller wandelnden digitalen Zeitalter wachsen stetig und sind komplexer denn je.
Unternehmen sind angehalten, immer kurzzyklischer auf sich ändernde
Bedingungen und Störungen zu reagieren und strategische Entscheidüngen
zur Gestaltung von Wertschöpfungsketten zu treffen. Nur mithilfe
einer umfassenden Datengrundlage und -kommunikation kann die strategische Planung der Supply-Chain effektiv erfolgen und somit die benötigte Robustheit und Agilität ermöglicht werden.
Crises are becoming more and more frequent. Whether natural disasters, economic crises, political events, or a pandemic - the right action mitigates the impact. The PAIRS project plans to minimize the surprise effect of these and to recommend appropriate actions based on data using artificial intelligence (AI). This paper conceptualizes a cascading model based on scenario technique, which acts as the basic approach in the project. The long-term discipline of scenario technique is integrated into the discipline of crisis management to enable short-term and continuous crises management in an automated manner. For this purpose, a practical crisis definition is given and interpreted as a process. Then, a cascading model is derived in which crises are continuously thought through using the scenario technique and three types of observations are classified: Incidents, disturbances, and crises. The presented model is exemplified within a non-technical application of a use case in the context of humanitarian logistics and the COVID-19 pandemic. Furthermore, first technical insights from the field of AI are given in the form of a semantic description composing a knowledge graph. In summary, a conceptual model is presented to enable situation-based crisis management with automated scenario generation by combining the two disciplines of crisis management with scenario technique.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.
Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke und in Zeiten sich ständig verändernder Rahmenbedingungen steigt für Unternehmen die Bedeutung einer resilienten Gestaltung ihrer Wertschöpfungsnetzwerke. Durch die hohe Vernetzung in einem Wertschöpfungsnetzwerk entsteht eine starke Abhängigkeit zwischen den einzelnen Akteuren. Störungen haben somit häufig nicht nur Auswirkungen auf einzelne Unternehmen, sondern betreffen verschiedene Akteure der Wertschöpfungsnetzwerke. Tritt nun eine Störung auf, kann sich diese im gesamten Netzwerk ausbreiten. Erst der konkrete Eintritt solcher Störungen im großen Umfang – wie zuletzt im Zuge der Corona-Pandemie oder der Blockierung des Suez-Kanals – führt Unternehmen regelmäßig dazu, sich mit ihren Wertschöpfungsnetzwerken auseinander zu setzen. Eine Möglichkeit zur Sicherung der Leistungsfähigkeit in einem volatilen Umfeld stellt der Aufbau von Resilienz dar. Insgesamt ist es hierbei das Ziel, Wertschöpfungsnetzwerke so zu gestalten, dass sie im Falle einer Störung möglichst wenig beeinträchtigt sind und schnell in den ursprünglichen oder einen besseren Zustand zurückkehren können.