Refine
Year of publication
- 2023 (15) (remove)
Document Type
- Book (1)
- Part of a Book (1)
- Conference Proceeding (7)
- Contribution to a Periodical (1)
- Internet Paper (1)
- Report (2)
- Working Paper (2)
Is part of the Bibliography
- no (15)
Keywords
- 01 (3)
- 02 (9)
- 03 (3)
- Anomaly detection (1)
- Blockchain (1)
- CO2 accounting (1)
- CO2-Bilanzierung (1)
- Co-Creation (1)
- Customer Perspective (1)
- Data Quality (1)
Institute
In der Industrie wird die Digitalisierung der Wertschöpfungskette als einer der Schlüssel für hohe Wettbewerbsfähigkeit gesehen. Dabei sollen die Effizienz der Geschäftsprozesse gesteigert, neue Geschäftsmodelle erschlossen sowie regulatorische Vorgaben wie das Lieferkettengesetz umgesetzt werden. Es werden also IT-Systeme benötigt, die ein großes Funktionsspektrum abdecken, sich flexibel an sich verändernde Anforderungen anpassen lassen und dabei untereinander eine hohe Datendurchgängigkeit aufweisen. In der Realität erfüllen heutige Systemlandschaften diese Anforderungen selten.
Im Zentrum der IT-Systemlandschaften stehen häufig monolithische Systeme wie ERP und MES, deren sehr großer Funktionsumfang in Unternehmen nicht annähernd voll ausgenutzt wird, gleichzeitig jedoch relevante Unternehmensprozesse nicht abgebildet werden. Anpassungen und Erweiterungen der Systeme sind aufgrund heterogener Datenmodelle kompliziert und führen zu stark individualisierter Software mit Nachteilen in Betrieb und Wartbarkeit.
Ein entscheidender Erfolgsfaktor ist es, die Systemlandschaft zu modularisieren: Funktionalitäten werden in prozessual und aufgabenbezogen sinnvolle Funktionsmodule geclustert und Unternehmen nutzen jeweils die für ihre individuelle Auftragsabwicklung benötigte systemische Unterstützung.
Statt großer monolithischer Systeme werden also nur die tatsächlich benötigten Module eingesetzt. Die Funktionen innerhalb der Module weisen eine hohe Kohärenz auf, während Module untereinander eher lose gekoppelt sind. Durch eine geschickte Gestaltung und Orchestrierung der Module entsteht eine Systemlandschaft, in der keine Funktionsüberschneidungen vorliegen und die Datenhoheit in den Modulen klar definiert ist.
In diesem White Paper wird zunächst die Bedeutung von Nachhaltigkeit beschrieben und die neue CSRD-Berichtspflicht in einen größeren Zusammenhang gestellt. Anschließend wird aufgezeigt, wie ein ERP-System bei der Erstellung des CSRD-Berichts unterstützen kann. Mit einer Reihe verschiedener Praxisbeispiele wird das Thema veranschaulicht.
Process mining has emerged as a crucial technology for digitalization, enabling companies to analyze, visualize, and optimize their processes using system data. Despite significant developments in the field over the years, companies—notably small and medium-sized enterprises—are not yet familiar with the discipline, leaving untapped potential for its practical application in the business domain. They often struggle with understanding the potential use cases, associated benefits, and prerequisites for implementing process mining applications. This lack of clarity and concerns about the effort and costs involved hinder the widespread adoption of process mining. To address this gap between process mining theory and real-world business application, we introduce the “Process Mining Use Case Canvas,” a novel framework designed to facilitate the structured development and specification of suitable use cases for process mining applications within manufacturing companies. We also connect to established methodologies and models for developing and specifying use cases for business models from related domains targeting data analytics and artificial intelligence projects. The canvas has already been tested and validated through its application in the ProMiConE research project, collaborating with manufacturing companies.
Based on the increasingly complex value creation networks, more and more event-based systems are being used for decision support. One example of a category of event-based systems is supply chain event management. The aim is to enable the best possible reaction to critical exceptional events based on event data. The central element is the event, which represents the information basis for mapping and matching the process flows in the event-based systems. However, since the data quality is insufficient in numerous application cases and the identification of incorrect data in supply chain event management is considered in the literature, this paper deals with the theoretical derivation of the necessary data attributes for the identification of incorrect event data. In particular, the types of errors that require complex identification strategies are considered. Accordingly, the relevant existing error types of event data are specified in subtypes in this paper. Subsequently, the necessary information requirements and information available regarding identification are considered using a GAP analysis. Based on this gap, the necessary data attributes can then be derived. Finally, an approach is presented that enables the generation of the complete data set. This serves as a basis for the recognition and filtering out of erroneous events in contrast to standard and exception events.
Based on a systematic literature review, different approaches to modularization of IT system landscapes were analyzed. This publication contains the metadata of the literature analysis, the initial set of relevant publications, the documentation of the filtering and screening process of the literature search, and the final set of publications. For the analysis of the final set of publications, please refer to the related publication Junglas et al., "Towards A Modular IT Landscape For Manufacturing Companies" (2023) (which can be found here in this repository or under DOI 10.15488/1530210.15488/15302).
Companies in the manufacturing sector are confronted with an increasingly dynamic environment. Thus, corporate processes and, consequently, the supporting IT landscape must change. This need is not yet fully met in the development of information systems. While best-of-breed approaches are available, monolithic systems that no longer meet the manufacturing industry's requirements are still prevalent in practical use. A modular structure of IT landscapes could combine the advantages of individual and standard information systems and meet the need for adaptability. At present, however, there is no established standard for the modular design of IT landscapes in the field of manufacturing companies' information systems. This paper presents different ways of the modular design of IT landscapes and information systems and analyzes their objects of modularization. For this purpose, a systematic literature research is carried out in the subject area of software and modularization. Starting from the V-model as a reference model, a framework for different levels of modularization was developed by identifying that most scientific approaches carry out modularization at the data structure-based and source code-based levels. Only a few sources address the consideration of modularization at the level of the software environment-based and software function-based level. In particular, no domain-specific application of these levels of modularization, e.g., for manufacturing, was identified. (Literature base: https://epub.fir.de/frontdoor/index/index/docId/2704)
Gap Analysis for CO2 Accounting Tool by Integrating Enterprise Resource Planning System Information
(2023)
Detailed carbon accounting is the foundation for reducing CO2 emissions in manufacturing companies. However, existing accounting approaches are primarily based on manual data preparation, although manufacturing companies already have a variety of IT systems and resulting data available. The gap analysis carried out based on the GHG Protocol and an reference ERP system shows how much of the required information for CO2 accounting can be integrated from an ERP system. The ERP system can cover 20 % of the required information. The information availability can be increased to 49 % through additionally identified modifications of the ERP system. Integrating the CO2 accounting tool with other systems of the IT landscape, e. g. Energy Information System, enables an additional increase.
iP4MoVE
(2023)
In dem Projekt ‚iP4MoVE‘ (Intelligente Plattform für E-Mobilität und Vernetzung von Energieinformationen) wurde eine Intelligente, datenbasierte Plattform entwickelt, die es ermöglicht, den E-Mobilitätssektor mit innovativen Energiequartieren zu koppeln.
Die Plattform bildet gemeinsam mit einer kontextbasierten Applikation die Grundlage für die Vermittlung zwischen den Energieinformationen, also dem Energieangebot und der Energienachfrage, sowie dem echtzeitfähigen Austausch zwischen Elektrofahrzeugen und -quartieren bzw. der Verfügbarkeit von Ladestationen innerhalb und außerhalb eines Quartiers. Das Forschungsprojekt stellt einen wichtigen Beitrag zur ökologischen und ökonomischen Gestaltung der Elektromobilität, mit dem Fokus auf den Straßengüterverkehr, und der nachhaltigen Quartiersbildung dar. Es wird dazu beigetragen, dass durch die Integration regenerativer Energiequellen und Speichertechnologien Treibhausgasemissionen reduziert werden. Wichtige Bestandteile dessen sind die Ermittlung des optimalen Elektrifizierungsgrads im Lastverkehr und die Bestimmung des ressourcenoptimalen Einsatzes von Transporten und Logistikketten. Die prototypische Umsetzung des Vorhabens zeigt exemplarisch synergetische Potenziale, insbesondere am Standort NRW, auf und bildet einen Baustein für eine Smarte Mobilität (Mobilität 4.0).
Nachhaltiges Wirtschaften und verantwortungsvoller Umgang mit Ressourcen und Umwelt haben in der deutschen Gesellschaft einen hohen Stellenwert erlangt. Durch eine bessere Produktrückverfolgung und höhere Transparenz in Supply-Chains wird ressourcenschonendere Wertschöpfung ermöglicht. Zusätzlich fordern Kunden eine Einsicht in die Lieferkette und wollen über Produktion und Herkunft der Produkte informiert werden. Die Blockchain als verteilte Datenbank mit außerordentlicher Datensicherheit, Verfügbarkeit von Informationen in Echtzeit im gesamten Netzwerk und hoher Verlässlichkeit bietet dabei die technologische Grundlage, die Transparenz in den Lieferketten zu erhöhen. So können Daten zu Emissionen, Arbeitsbedingungen, Materialherkunft und weiteren Nachhaltigkeitskriterien entlang der Lieferkette aufgenommen und verteilt werden.
Die Anforderungen von Anwendern und Lösungsanbietern an eine Blockchain-Applikation flossen in eine Referenzarchitektur für diese ein. Dabei wurden z. B. die Gestaltung von Schnittstellen, benötigte Daten und Zugangsrichtlinien definiert. Gemeinsam mit dem DIN wurden die Ergebnisse in eine Standardisierung überführt. Anschließend wurden Gestaltungsempfehlungen zur Integration einer Blockchain-Applikation abgeleitet und die Ergebnisse in Unternehmen validiert.
Die Referenzarchitektur dient der erleichterten Entwicklung und Implementierung von Blockchain-Applikationen und damit einer Reduzierung von Kosten, Risiken und Zeitaufwand für KMU. Dem Kunden wird ein besserer Zugang zu Informationen über die Herkunft seiner Produkte ermöglicht, um ökologisch sinnvolle und nachhaltige Kaufentscheidungen treffen zu können.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.