Refine
Document Type
- Article (6)
- Book (4)
- Part of a Book (6)
- Conference Proceeding (9)
- Contribution to a Periodical (20)
- Internet Paper (2)
- Report (6)
- Working Paper (12)
Language
- German (52)
- English (11)
- Multiple languages (2)
Is part of the Bibliography
- no (65)
Keywords
- 01 (3)
- 02 (10)
- 03 (3)
- 3PhasenKonzept (3)
- AM4Industry (3)
- APS-System (1)
- Additive Fertigung (1)
- Algorithmus (1)
- Anforderungsmanagement (1)
- Anomaly detection (1)
Institute
Data-driven transparency in end-to-end operations in real-time is seen as a key benefit of the fourth industrial revolution. In the context of a factory, it enables fast and precise diagnoses and corrections of deviations and, thus, contributes to the idea of an agile enterprise. Since a factory is a complex socio-technical system, multiple technical, organizational and cultural capabilities need
to be established and aligned. In recent studies, the underlying broad accessibility of data and corresponding analytics tools are called “data democratization”. In this study, we examine the status quo of the relevant capabilities for data democratization in the manufacturing industry.
(1) and outline the way forward.
(2) The insights are based on 259 studies on the digital maturity of factories from multiple industries and regions of the world using the acatech Industrie 4.0 Maturity Index as a framework. For this work, a subset of the data was selected.
(3) As a result, the examined factories show a lack of capabilities across all dimensions of the framework (IT systems, resources, organizational structure, culture).
(4) Thus, we conclude that the outlined implementation approach needs to comprise the technical backbone for a data pipeline as well as capability building and an organizational transformation.
Process mining has emerged as a crucial technology for digitalization, enabling companies to analyze, visualize, and optimize their processes using system data. Despite significant developments in the field over the years, companies—notably small and medium-sized enterprises—are not yet familiar with the discipline, leaving untapped potential for its practical application in the business domain. They often struggle with understanding the potential use cases, associated benefits, and prerequisites for implementing process mining applications. This lack of clarity and concerns about the effort and costs involved hinder the widespread adoption of process mining. To address this gap between process mining theory and real-world business application, we introduce the “Process Mining Use Case Canvas,” a novel framework designed to facilitate the structured development and specification of suitable use cases for process mining applications within manufacturing companies. We also connect to established methodologies and models for developing and specifying use cases for business models from related domains targeting data analytics and artificial intelligence projects. The canvas has already been tested and validated through its application in the ProMiConE research project, collaborating with manufacturing companies.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
SCM-Software ist heute zur Unterstützung der übergreifenden Herstellabwicklung zwischen den Unternehmen bzw. Unternehmensstandorten etabliert. Der Blick in die Praxis verdeutlicht allerdings unterschiedlichste Leitideen, Anforderungsschwerpunkte und Lösungsansätze. Außerdem setzen die Softwareanbieter verschiedenste Branchenund Funktionsschwerpunkte, was die Vergleichbarkeit zusätzlich einschränkt. Der vorliegende Beitrag gibt einen Überblick über ein SCM-Funktionsmodell zur durchgängigen standortübergreifenden und -internen Herstellabwicklung zur Bewertung der verfügbaren SCM-Software.
Die Globalisierung und der steigende Wettbewerbsdruck erfordern, dass Supply Chains heutzutage komplexe Anforderungen erfüllen. Dabei müssen sie gleichzeitig flexibel genug sein, um an kurzfristige Veränderungen angepasst werden zu können. Ein unternehmensübergreifender Datenaustausch ermöglicht den Akteuren durch schnelle Informationsweitergabe über auftretende Ereignisse entlang der Supply Chain, dynamisch auf aktuelle Gegebenheiten zu reagieren und dadurch hervorgerufene mögliche Schäden zu minimieren. Auch wenn viele Unternehmen mit der Bereitstellung von Daten noch zurückhaltend sind, gehen die Vorteile des Datenaustauschs weit über die Verkürzung der Reaktionszeit hinaus.
Im "Data Quality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des FIR und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Erstes Ziel ist die Entwicklung einer Methodik und Toolchain für das betriebliche Stammdatenmanagement zur Evaluierung und Sicherung der Stammdatenqualität. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. Außerdem wird die DQC-Methodik zur Bewertung der Stammdatenqualität im Unternehmen beschrieben.
Im "Data Quality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des FIR und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Erstes Ziel ist die Entwicklung einer Methodik und Toolchain für das betriebliche Stammdatenmanagement zur Evaluierung und Sicherung der Stammdatenqualität. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. Außerdem wird die DQC-Methodik zur Bewertung der Stammdatenqualität im Unternehmen beschrieben.
Schlüsselfaktoren für den industriellen Einsatz Additiver Fertigung in produzierenden Unternehmen
(2020)
Die Additive Fertigung (AM) ist insbesondere als Hilfsmittel bei der Produktentwicklung weit verbreitet. 71 Prozent der produzierenden Unternehmen setzen AM für die Fertigung von Prototypen und Pilotserien ein. Derzeit eignet sich AM jedoch nicht mehr nur für die Fertigung von Prototypen und Pilotserien, sondern gewinnt auch zur Herstellung von Endprodukten aus metallischen Werkstoffen an Bedeutung. Der vorliegende Beitrag verfolgt das Ziel, Schlüsselfaktoren zu identifizieren, die den industriellen Einsatz von AM in produzierenden Unternehmen am stärksten prägen. Damit wird zugleich die Grundlage geschaffen für ein systematisches Vorausdenken der Zukunft.
Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke und in Zeiten sich ständig verändernder Rahmenbedingungen steigt für Unternehmen die Bedeutung einer resilienten Gestaltung ihrer Wertschöpfungsnetzwerke. Durch die hohe Vernetzung in einem Wertschöpfungsnetzwerk entsteht eine starke Abhängigkeit zwischen den einzelnen Akteuren. Störungen haben somit häufig nicht nur Auswirkungen auf einzelne Unternehmen, sondern betreffen verschiedene Akteure der Wertschöpfungsnetzwerke. Tritt nun eine Störung auf, kann sich diese im gesamten Netzwerk ausbreiten. Erst der konkrete Eintritt solcher Störungen im großen Umfang – wie zuletzt im Zuge der Corona-Pandemie oder der Blockierung des Suez-Kanals – führt Unternehmen regelmäßig dazu, sich mit ihren Wertschöpfungsnetzwerken auseinander zu setzen. Eine Möglichkeit zur Sicherung der Leistungsfähigkeit in einem volatilen Umfeld stellt der Aufbau von Resilienz dar. Insgesamt ist es hierbei das Ziel, Wertschöpfungsnetzwerke so zu gestalten, dass sie im Falle einer Störung möglichst wenig beeinträchtigt sind und schnell in den ursprünglichen oder einen besseren Zustand zurückkehren können.
Das FIR an der RWTH Aachen und das Industrie 4.0 Maturity
Center untersuchten die Anfälligkeit von Unternehmen
gegenüber Krisensituationen: Die Expertise "Wertschöpfungsnetzwerke
in Zeiten von Infektionskrisen“ nimmt sich die COVID-19-Pandemie als Beispiel (Herausgeber Forschungsbeirat der Plattform Industrie 4.0/acatech – Deutsche Akademie der Technikwissenschaften). In einer empirischen Fragebogenstudie wurden im Zeitraum von Mitte November 2020 bis Mitte Januar 2021 Unternehmen hinsichtlich der Auswirkungen der COVID-19-Pandemie befragt. Unter anderem sollte die Relevanz
und der aktuellen Umsetzungsstand potenzieller Maßnahmen zur Steigerung der Resilienz eingeschätzt werden. An dieser Befragung nahmen vorwiegend produzierende Unternehmen unterschiedlicher Größe und aus verschiedenen Branchen u. a. Maschinen- und Anlagenbau, Automobil-, Konsumgüter- und Metallindustrie teil. Auf Basis dieser Ergebnisse wurden Potenziale und Handlungsoptionen identifiziert, die Unternehmen bei der resilienten Gestaltung ihrer Wertschöpfungsnetzwerke unterstützen können.