Refine
Document Type
- Article (7)
- Book (4)
- Part of a Book (6)
- Conference Proceeding (9)
- Contribution to a Periodical (20)
- Internet Paper (2)
- Report (6)
- Working Paper (12)
Language
- German (53)
- English (11)
- Multiple languages (2)
Is part of the Bibliography
- no (66)
Keywords
- 01 (3)
- 02 (10)
- 03 (4)
- 3PhasenKonzept (3)
- AM4Industry (3)
- APS-System (1)
- Additive Fertigung (1)
- Algorithmus (1)
- Anforderungsmanagement (1)
- Anomaly detection (1)
- Auftragsabwicklung (1)
- Bahn (2)
- Bewertung (1)
- Blockchain (1)
- Business Applications (1)
- CO2 accounting (1)
- CO2-Bilanzierung (2)
- CO2-Emission (1)
- Co-Creation (1)
- Customer Perspective (1)
- DQC (1)
- DaFuER (3)
- Data Quality (1)
- Data platform (1)
- Data set (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenfusion (4)
- Datenintegration (1)
- Datenplattform (1)
- Datenqualität (5)
- Datenökosystem (1)
- Deviation identification strategies (1)
- Digital Architecture Management (1)
- Digital Transformation (1)
- Digitale Plattform (1)
- Digitaler Schatten (1)
- Digitalisierung (3)
- Disruptions (1)
- Do-it-together (1)
- EFRE-0801707 (1)
- EPCIS (1)
- ERP (6)
- ERP-/PPS-Auswahl (1)
- ERP-Systeme (6)
- ERSC (1)
- Electric freight truck (1)
- Elektro-LKW (1)
- End-2-End-Transparenz (1)
- Energiequartiere (1)
- Energy quarters (1)
- Enterprise Resource Planning (1)
- Enterprise-Resource-Planning (3)
- Entscheidungsfusion (1)
- Entscheidungsunterstützung (1)
- Expertise (1)
- FIR-Leitfaden (1)
- Forschungsbeirat (1)
- Furniture Production Process (1)
- Förderkennzeichen EFRE-0801707 (1)
- Herstellung (1)
- IT landscape (3)
- IT-Systemauswahl (1)
- IT-Systeme (1)
- IT-Systemlandschaften (1)
- Industrie 4.0 (3)
- Industrie-4.0-Maturity-Index (1)
- Information system (1)
- Informationsmanagement (1)
- Informationssystem (1)
- Informationssysteme (1)
- Innovative Furniture (1)
- Insufficient Data (1)
- Internet of Production (3)
- KI (3)
- KMU (1)
- Kollaborationplattform (1)
- Konferenz (2)
- Kongress (1)
- Kosten-Nutzen-Analyse (1)
- Kosten-Nutzenbewertung (1)
- Kunden-Lieferanten-Beziehungen (1)
- Künstliche Intelligenz (3)
- Lebenszykluskosten (1)
- Lieferketten (1)
- Literature review (1)
- Logistics (1)
- Logistik (1)
- MES (1)
- Manufacturing (1)
- Manufacturing Execution System (1)
- Manufacturing-Execution-System (1)
- Marktspiegel (3)
- Marktübersicht (1)
- Mensch und Technik (1)
- Mobilität in Deutschland (1)
- Modulare IT-Systeme (1)
- Modularität (2)
- Modularization (1)
- Nachhaltigkeit (6)
- Natural-Language-Processing (1)
- Nutzenpotenzial (1)
- PPC (1)
- PPS (5)
- PPS sys Markt FIR 9141 (1)
- Plattform Industrie 4.0 (1)
- Predictive Maintenance (1)
- Process Management (1)
- Process-Mining (4)
- Procurement Strategy (1)
- Product Characteristics (1)
- Production Planning (1)
- Produktion (1)
- Produktionsplanung (5)
- Produktionsplanung und -steuerung (2)
- Produktionsprozess (1)
- Produktionssteuerung (2)
- Prozessanalyse (2)
- Prozesse (1)
- Prozessmanagement (1)
- Prozessmodell (1)
- Rapid Prototyping (1)
- Reaktionsfähigkeit (1)
- Reifegradmodell (1)
- Resilienz (3)
- Risikomanagement (2)
- Rückmeldedaten (1)
- SCEM (1)
- SCM (1)
- SV7133 (1)
- SV7248 (1)
- SV7291 (1)
- SV7315 (1)
- SV7335 (1)
- SV7392 (1)
- SV7420 (1)
- SV7421 (1)
- SV7422 (1)
- SV7432 (1)
- SV7435 (1)
- SV7447 (1)
- Schatten-IT (1)
- Schienengüterverkehr (1)
- Schienenverkehr (2)
- Sector coupling (1)
- Sektorenkopplung (1)
- Software (2)
- Softwareauswahl (1)
- Stammdaten (1)
- Stammdatenqualität (1)
- Studie (1)
- Subscription (1)
- Supply Chain Event Management (1)
- Supply Chain Management (1)
- Supply Risks (1)
- Supply chain event management (1)
- Supply chain management (1)
- Supply-Chain (1)
- Supply-Chain-Design (1)
- Supply-Chain-Event-Management (1)
- Supply-Chain-Management (6)
- Supply-Chain-Resilienz (1)
- Supply-Chain-Risk-Management (1)
- Sustainability (2)
- Technologieauswahl (1)
- Tracking & Tracing (1)
- Trovarit (1)
- U1032 (1)
- Vorgehen (1)
- Wertschöpfungsnetzwerke (3)
- Whitepaper (1)
- additive Fertigung (2)
- additive manufacturing (3)
- benefits (1)
- betriebliche Rückmeldedaten (1)
- betriebliche Rückmeldung (1)
- business applications (1)
- business case (1)
- configuration (1)
- cost benefit model (2)
- cost-benefit-model (1)
- costs (1)
- data democratization (1)
- disruptions (2)
- enterprise resource planning system (1)
- fourth industrial revolution (1)
- framework (1)
- gap analysis (1)
- incorrect data (1)
- information system (2)
- literature review (1)
- manufacturing (2)
- modularization (1)
- order processing (1)
- process mining (1)
- procurement (1)
- procurement strategy (1)
- railconnect (2)
- resilience (2)
- resilience principles (1)
- rev (8)
- supply risks (1)
- sustainability (1)
- textile supply chain (1)
- use case canvas (1)
Institute
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.
In der Industrie wird die Digitalisierung der Wertschöpfungskette als einer der Schlüssel für hohe Wettbewerbsfähigkeit gesehen. Dabei sollen die Effizienz der Geschäftsprozesse gesteigert, neue Geschäftsmodelle erschlossen sowie regulatorische Vorgaben wie das Lieferkettengesetz umgesetzt werden. Es werden also IT-Systeme benötigt, die ein großes Funktionsspektrum abdecken, sich flexibel an sich verändernde Anforderungen anpassen lassen und dabei untereinander eine hohe Datendurchgängigkeit aufweisen. In der Realität erfüllen heutige Systemlandschaften diese Anforderungen selten.
Im Zentrum der IT-Systemlandschaften stehen häufig monolithische Systeme wie ERP und MES, deren sehr großer Funktionsumfang in Unternehmen nicht annähernd voll ausgenutzt wird, gleichzeitig jedoch relevante Unternehmensprozesse nicht abgebildet werden. Anpassungen und Erweiterungen der Systeme sind aufgrund heterogener Datenmodelle kompliziert und führen zu stark individualisierter Software mit Nachteilen in Betrieb und Wartbarkeit.
Ein entscheidender Erfolgsfaktor ist es, die Systemlandschaft zu modularisieren: Funktionalitäten werden in prozessual und aufgabenbezogen sinnvolle Funktionsmodule geclustert und Unternehmen nutzen jeweils die für ihre individuelle Auftragsabwicklung benötigte systemische Unterstützung.
Statt großer monolithischer Systeme werden also nur die tatsächlich benötigten Module eingesetzt. Die Funktionen innerhalb der Module weisen eine hohe Kohärenz auf, während Module untereinander eher lose gekoppelt sind. Durch eine geschickte Gestaltung und Orchestrierung der Module entsteht eine Systemlandschaft, in der keine Funktionsüberschneidungen vorliegen und die Datenhoheit in den Modulen klar definiert ist.
Das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center untersuchten Anfälligkeiten von Unternehmen gegenüber Krisensituationen: Die Expertise "Wertschöpfungsnetzwerke in Zeiten von Infektionskrisen" nimmst sich die COVID-19-Pandemie als Beispiel (Herausgeber Forschungsbeirat der Plattform Industrie 4.0 / acatech - Deutsche Akademie der Technikwissenschaften). In einer empirischen Fragebogenstudie wurden im Zeitraum von Mitte November 2020 bis Mitte Januar 2021 Unternehmen hinsichtlich der Auswirkungen der COVID-19-Pandemie befragt. Unter anderem sollte die Relevanz und der aktuelle Umsetzungsstand potenzieller Maßnahmen zur Steigerung der Resilienz eingeschätzt werden. An dieser Befragung nahmen vorwiegend produzierende Unternehmen unterschiedlicher Größe und aus verschiedenen Branchen u. a. Maschinen- und Anlagenbau, Automobil-, Konsumgüter- und Metallindustrie teil. Auf Basis dieser Ergebnisse wurden Potenziale und Handlungsoptionen identifiziert, die Unternehmen bei der resilienten Gestaltung ihrer Wertschöpfungsnetzwerke unterstützen können.
Als Beispiel einer globalen Krisensituation zeigt die COVID-19-Pandemie eindrucksvoll die Schwachstellen heutiger Wertschöpfungsnetzwerke. Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke steigt für Unternehmen die Bedeutung einer resilienten Gestaltung derselben. Dabei wird davon ausgegangen, dass ähnliche Krisensituationen in Zukunft häufiger auftreten werden. Ziel dieser Expertise ist es, Unternehmen bei der Identifikation von Potenzialen und Maßnahmen für die resiliente Gestaltung ihrer Wertschöpfungsnetzwerke zu unterstützen.
Um in komplexen Wertschöpfungsnetzwerken und an der Schnittstelle zwischen Kunden und Lieferanten valide, datenbasierte Entscheidungen treffen zu können, muss eine hohe Datenqualität vorliegen. Dabei mangelt es oft an einem Datenqualitätsmanagement (DQM), das den konkreten Anwendungsfall und den überbetrieblichen Austausch berücksichtigt. Wir stellen ein universales Rahmenwerk für das überbetriebliche DQM vor, das Ziele, Prozesse, relevante Daten und Akteure erfasst und den Grundstein für eine ganzheitliche Datenqualitätsstrategie legt.
Companies in the manufacturing sector are confronted with an increasingly dynamic environment. Thus, corporate processes and, consequently, the supporting IT landscape must change. This need is not yet fully met in the development of information systems. While best-of-breed approaches are available, monolithic systems that no longer meet the manufacturing industry's requirements are still prevalent in practical use. A modular structure of IT landscapes could combine the advantages of individual and standard information systems and meet the need for adaptability. At present, however, there is no established standard for the modular design of IT landscapes in the field of manufacturing companies' information systems. This paper presents different ways of the modular design of IT landscapes and information systems and analyzes their objects of modularization. For this purpose, a systematic literature research is carried out in the subject area of software and modularization. Starting from the V-model as a reference model, a framework for different levels of modularization was developed by identifying that most scientific approaches carry out modularization at the data structure-based and source code-based levels. Only a few sources address the consideration of modularization at the level of the software environment-based and software function-based level. In particular, no domain-specific application of these levels of modularization, e.g., for manufacturing, was identified. (Literature base: https://epub.fir.de/frontdoor/index/index/docId/2704)
Data-driven transparency in end-to-end operations in real-time is seen as a key benefit of the fourth industrial revolution. In the context of a factory, it enables fast and precise diagnoses and corrections of deviations and, thus, contributes to the idea of an agile enterprise. Since a factory is a complex socio-technical system, multiple technical, organizational and cultural capabilities need
to be established and aligned. In recent studies, the underlying broad accessibility of data and corresponding analytics tools are called “data democratization”. In this study, we examine the status quo of the relevant capabilities for data democratization in the manufacturing industry.
(1) and outline the way forward.
(2) The insights are based on 259 studies on the digital maturity of factories from multiple industries and regions of the world using the acatech Industrie 4.0 Maturity Index as a framework. For this work, a subset of the data was selected.
(3) As a result, the examined factories show a lack of capabilities across all dimensions of the framework (IT systems, resources, organizational structure, culture).
(4) Thus, we conclude that the outlined implementation approach needs to comprise the technical backbone for a data pipeline as well as capability building and an organizational transformation.
Process mining has emerged as a crucial technology for digitalization, enabling companies to analyze, visualize, and optimize their processes using system data. Despite significant developments in the field over the years, companies—notably small and medium-sized enterprises—are not yet familiar with the discipline, leaving untapped potential for its practical application in the business domain. They often struggle with understanding the potential use cases, associated benefits, and prerequisites for implementing process mining applications. This lack of clarity and concerns about the effort and costs involved hinder the widespread adoption of process mining. To address this gap between process mining theory and real-world business application, we introduce the “Process Mining Use Case Canvas,” a novel framework designed to facilitate the structured development and specification of suitable use cases for process mining applications within manufacturing companies. We also connect to established methodologies and models for developing and specifying use cases for business models from related domains targeting data analytics and artificial intelligence projects. The canvas has already been tested and validated through its application in the ProMiConE research project, collaborating with manufacturing companies.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
SCM-Software ist heute zur Unterstützung der übergreifenden Herstellabwicklung zwischen den Unternehmen bzw. Unternehmensstandorten etabliert. Der Blick in die Praxis verdeutlicht allerdings unterschiedlichste Leitideen, Anforderungsschwerpunkte und Lösungsansätze. Außerdem setzen die Softwareanbieter verschiedenste Branchenund Funktionsschwerpunkte, was die Vergleichbarkeit zusätzlich einschränkt. Der vorliegende Beitrag gibt einen Überblick über ein SCM-Funktionsmodell zur durchgängigen standortübergreifenden und -internen Herstellabwicklung zur Bewertung der verfügbaren SCM-Software.