Refine
Document Type
- Article (7)
- Book (4)
- Part of a Book (6)
- Conference Proceeding (9)
- Contribution to a Periodical (20)
- Internet Paper (2)
- Report (6)
- Working Paper (12)
Language
- German (53)
- English (11)
- Multiple languages (2)
Is part of the Bibliography
- no (66)
Keywords
- 01 (3)
- 02 (10)
- 03 (4)
- 3PhasenKonzept (3)
- AM4Industry (3)
- APS-System (1)
- Additive Fertigung (1)
- Algorithmus (1)
- Anforderungsmanagement (1)
- Anomaly detection (1)
Institute
Companies in the manufacturing sector are confronted with an increasingly dynamic environment. Thus, corporate processes and, consequently, the supporting IT landscape must change. This need is not yet fully met in the development of information systems. While best-of-breed approaches are available, monolithic systems that no longer meet the manufacturing industry's requirements are still prevalent in practical use. A modular structure of IT landscapes could combine the advantages of individual and standard information systems and meet the need for adaptability. At present, however, there is no established standard for the modular design of IT landscapes in the field of manufacturing companies' information systems. This paper presents different ways of the modular design of IT landscapes and information systems and analyzes their objects of modularization. For this purpose, a systematic literature research is carried out in the subject area of software and modularization. Starting from the V-model as a reference model, a framework for different levels of modularization was developed by identifying that most scientific approaches carry out modularization at the data structure-based and source code-based levels. Only a few sources address the consideration of modularization at the level of the software environment-based and software function-based level. In particular, no domain-specific application of these levels of modularization, e.g., for manufacturing, was identified. (Literature base: https://epub.fir.de/frontdoor/index/index/docId/2704)
Um in komplexen Wertschöpfungsnetzwerken und an der Schnittstelle zwischen Kunden und Lieferanten valide, datenbasierte Entscheidungen treffen zu können, muss eine hohe Datenqualität vorliegen. Dabei mangelt es oft an einem Datenqualitätsmanagement (DQM), das den konkreten Anwendungsfall und den überbetrieblichen Austausch berücksichtigt. Wir stellen ein universales Rahmenwerk für das überbetriebliche DQM vor, das Ziele, Prozesse, relevante Daten und Akteure erfasst und den Grundstein für eine ganzheitliche Datenqualitätsstrategie legt.
Das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center untersuchten Anfälligkeiten von Unternehmen gegenüber Krisensituationen: Die Expertise "Wertschöpfungsnetzwerke in Zeiten von Infektionskrisen" nimmst sich die COVID-19-Pandemie als Beispiel (Herausgeber Forschungsbeirat der Plattform Industrie 4.0 / acatech - Deutsche Akademie der Technikwissenschaften). In einer empirischen Fragebogenstudie wurden im Zeitraum von Mitte November 2020 bis Mitte Januar 2021 Unternehmen hinsichtlich der Auswirkungen der COVID-19-Pandemie befragt. Unter anderem sollte die Relevanz und der aktuelle Umsetzungsstand potenzieller Maßnahmen zur Steigerung der Resilienz eingeschätzt werden. An dieser Befragung nahmen vorwiegend produzierende Unternehmen unterschiedlicher Größe und aus verschiedenen Branchen u. a. Maschinen- und Anlagenbau, Automobil-, Konsumgüter- und Metallindustrie teil. Auf Basis dieser Ergebnisse wurden Potenziale und Handlungsoptionen identifiziert, die Unternehmen bei der resilienten Gestaltung ihrer Wertschöpfungsnetzwerke unterstützen können.
Als Beispiel einer globalen Krisensituation zeigt die COVID-19-Pandemie eindrucksvoll die Schwachstellen heutiger Wertschöpfungsnetzwerke. Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke steigt für Unternehmen die Bedeutung einer resilienten Gestaltung derselben. Dabei wird davon ausgegangen, dass ähnliche Krisensituationen in Zukunft häufiger auftreten werden. Ziel dieser Expertise ist es, Unternehmen bei der Identifikation von Potenzialen und Maßnahmen für die resiliente Gestaltung ihrer Wertschöpfungsnetzwerke zu unterstützen.
In der Industrie wird die Digitalisierung der Wertschöpfungskette als einer der Schlüssel für hohe Wettbewerbsfähigkeit gesehen. Dabei sollen die Effizienz der Geschäftsprozesse gesteigert, neue Geschäftsmodelle erschlossen sowie regulatorische Vorgaben wie das Lieferkettengesetz umgesetzt werden. Es werden also IT-Systeme benötigt, die ein großes Funktionsspektrum abdecken, sich flexibel an sich verändernde Anforderungen anpassen lassen und dabei untereinander eine hohe Datendurchgängigkeit aufweisen. In der Realität erfüllen heutige Systemlandschaften diese Anforderungen selten.
Im Zentrum der IT-Systemlandschaften stehen häufig monolithische Systeme wie ERP und MES, deren sehr großer Funktionsumfang in Unternehmen nicht annähernd voll ausgenutzt wird, gleichzeitig jedoch relevante Unternehmensprozesse nicht abgebildet werden. Anpassungen und Erweiterungen der Systeme sind aufgrund heterogener Datenmodelle kompliziert und führen zu stark individualisierter Software mit Nachteilen in Betrieb und Wartbarkeit.
Ein entscheidender Erfolgsfaktor ist es, die Systemlandschaft zu modularisieren: Funktionalitäten werden in prozessual und aufgabenbezogen sinnvolle Funktionsmodule geclustert und Unternehmen nutzen jeweils die für ihre individuelle Auftragsabwicklung benötigte systemische Unterstützung.
Statt großer monolithischer Systeme werden also nur die tatsächlich benötigten Module eingesetzt. Die Funktionen innerhalb der Module weisen eine hohe Kohärenz auf, während Module untereinander eher lose gekoppelt sind. Durch eine geschickte Gestaltung und Orchestrierung der Module entsteht eine Systemlandschaft, in der keine Funktionsüberschneidungen vorliegen und die Datenhoheit in den Modulen klar definiert ist.
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.