Refine
Year of publication
- 2023 (15) (remove)
Document Type
- Book (1)
- Part of a Book (1)
- Conference Proceeding (7)
- Contribution to a Periodical (1)
- Internet Paper (1)
- Report (2)
- Working Paper (2)
Is part of the Bibliography
- no (15)
Keywords
- 01 (3)
- 02 (9)
- 03 (3)
- Anomaly detection (1)
- Blockchain (1)
- CO2 accounting (1)
- CO2-Bilanzierung (1)
- Co-Creation (1)
- Customer Perspective (1)
- Data Quality (1)
Institute
Based on a systematic literature review, different approaches to modularization of IT system landscapes were analyzed. This publication contains the metadata of the literature analysis, the initial set of relevant publications, the documentation of the filtering and screening process of the literature search, and the final set of publications. For the analysis of the final set of publications, please refer to the related publication Junglas et al., "Towards A Modular IT Landscape For Manufacturing Companies" (2023) (which can be found here in this repository or under DOI 10.15488/1530210.15488/15302).
Based on the increasingly complex value creation networks, more and more event-based systems are being used for decision support. One example of a category of event-based systems is supply chain event management. The aim is to enable the best possible reaction to critical exceptional events based on event data. The central element is the event, which represents the information basis for mapping and matching the process flows in the event-based systems. However, since the data quality is insufficient in numerous application cases and the identification of incorrect data in supply chain event management is considered in the literature, this paper deals with the theoretical derivation of the necessary data attributes for the identification of incorrect event data. In particular, the types of errors that require complex identification strategies are considered. Accordingly, the relevant existing error types of event data are specified in subtypes in this paper. Subsequently, the necessary information requirements and information available regarding identification are considered using a GAP analysis. Based on this gap, the necessary data attributes can then be derived. Finally, an approach is presented that enables the generation of the complete data set. This serves as a basis for the recognition and filtering out of erroneous events in contrast to standard and exception events.
Process mining has emerged as a crucial technology for digitalization, enabling companies to analyze, visualize, and optimize their processes using system data. Despite significant developments in the field over the years, companies—notably small and medium-sized enterprises—are not yet familiar with the discipline, leaving untapped potential for its practical application in the business domain. They often struggle with understanding the potential use cases, associated benefits, and prerequisites for implementing process mining applications. This lack of clarity and concerns about the effort and costs involved hinder the widespread adoption of process mining. To address this gap between process mining theory and real-world business application, we introduce the “Process Mining Use Case Canvas,” a novel framework designed to facilitate the structured development and specification of suitable use cases for process mining applications within manufacturing companies. We also connect to established methodologies and models for developing and specifying use cases for business models from related domains targeting data analytics and artificial intelligence projects. The canvas has already been tested and validated through its application in the ProMiConE research project, collaborating with manufacturing companies.
In diesem White Paper wird zunächst die Bedeutung von Nachhaltigkeit beschrieben und die neue CSRD-Berichtspflicht in einen größeren Zusammenhang gestellt. Anschließend wird aufgezeigt, wie ein ERP-System bei der Erstellung des CSRD-Berichts unterstützen kann. Mit einer Reihe verschiedener Praxisbeispiele wird das Thema veranschaulicht.
In der Industrie wird die Digitalisierung der Wertschöpfungskette als einer der Schlüssel für hohe Wettbewerbsfähigkeit gesehen. Dabei sollen die Effizienz der Geschäftsprozesse gesteigert, neue Geschäftsmodelle erschlossen sowie regulatorische Vorgaben wie das Lieferkettengesetz umgesetzt werden. Es werden also IT-Systeme benötigt, die ein großes Funktionsspektrum abdecken, sich flexibel an sich verändernde Anforderungen anpassen lassen und dabei untereinander eine hohe Datendurchgängigkeit aufweisen. In der Realität erfüllen heutige Systemlandschaften diese Anforderungen selten.
Im Zentrum der IT-Systemlandschaften stehen häufig monolithische Systeme wie ERP und MES, deren sehr großer Funktionsumfang in Unternehmen nicht annähernd voll ausgenutzt wird, gleichzeitig jedoch relevante Unternehmensprozesse nicht abgebildet werden. Anpassungen und Erweiterungen der Systeme sind aufgrund heterogener Datenmodelle kompliziert und führen zu stark individualisierter Software mit Nachteilen in Betrieb und Wartbarkeit.
Ein entscheidender Erfolgsfaktor ist es, die Systemlandschaft zu modularisieren: Funktionalitäten werden in prozessual und aufgabenbezogen sinnvolle Funktionsmodule geclustert und Unternehmen nutzen jeweils die für ihre individuelle Auftragsabwicklung benötigte systemische Unterstützung.
Statt großer monolithischer Systeme werden also nur die tatsächlich benötigten Module eingesetzt. Die Funktionen innerhalb der Module weisen eine hohe Kohärenz auf, während Module untereinander eher lose gekoppelt sind. Durch eine geschickte Gestaltung und Orchestrierung der Module entsteht eine Systemlandschaft, in der keine Funktionsüberschneidungen vorliegen und die Datenhoheit in den Modulen klar definiert ist.