Refine
Document Type
- Article (7)
- Book (4)
- Part of a Book (6)
- Conference Proceeding (9)
- Contribution to a Periodical (20)
- Internet Paper (2)
- Report (6)
- Working Paper (12)
Language
- German (53)
- English (11)
- Multiple languages (2)
Is part of the Bibliography
- no (66)
Keywords
- 01 (3)
- 02 (10)
- 03 (4)
- 3PhasenKonzept (3)
- AM4Industry (3)
- APS-System (1)
- Additive Fertigung (1)
- Algorithmus (1)
- Anforderungsmanagement (1)
- Anomaly detection (1)
- Auftragsabwicklung (1)
- Bahn (2)
- Bewertung (1)
- Blockchain (1)
- Business Applications (1)
- CO2 accounting (1)
- CO2-Bilanzierung (2)
- CO2-Emission (1)
- Co-Creation (1)
- Customer Perspective (1)
- DQC (1)
- DaFuER (3)
- Data Quality (1)
- Data platform (1)
- Data set (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenfusion (4)
- Datenintegration (1)
- Datenplattform (1)
- Datenqualität (5)
- Datenökosystem (1)
- Deviation identification strategies (1)
- Digital Architecture Management (1)
- Digital Transformation (1)
- Digitale Plattform (1)
- Digitaler Schatten (1)
- Digitalisierung (3)
- Disruptions (1)
- Do-it-together (1)
- EFRE-0801707 (1)
- EPCIS (1)
- ERP (6)
- ERP-/PPS-Auswahl (1)
- ERP-Systeme (6)
- ERSC (1)
- Electric freight truck (1)
- Elektro-LKW (1)
- End-2-End-Transparenz (1)
- Energiequartiere (1)
- Energy quarters (1)
- Enterprise Resource Planning (1)
- Enterprise-Resource-Planning (3)
- Entscheidungsfusion (1)
- Entscheidungsunterstützung (1)
- Expertise (1)
- FIR-Leitfaden (1)
- Forschungsbeirat (1)
- Furniture Production Process (1)
- Förderkennzeichen EFRE-0801707 (1)
- Herstellung (1)
- IT landscape (3)
- IT-Systemauswahl (1)
- IT-Systeme (1)
- IT-Systemlandschaften (1)
- Industrie 4.0 (3)
- Industrie-4.0-Maturity-Index (1)
- Information system (1)
- Informationsmanagement (1)
- Informationssystem (1)
- Informationssysteme (1)
- Innovative Furniture (1)
- Insufficient Data (1)
- Internet of Production (3)
- KI (3)
- KMU (1)
- Kollaborationplattform (1)
- Konferenz (2)
- Kongress (1)
- Kosten-Nutzen-Analyse (1)
- Kosten-Nutzenbewertung (1)
- Kunden-Lieferanten-Beziehungen (1)
- Künstliche Intelligenz (3)
- Lebenszykluskosten (1)
- Lieferketten (1)
- Literature review (1)
- Logistics (1)
- Logistik (1)
- MES (1)
- Manufacturing (1)
- Manufacturing Execution System (1)
- Manufacturing-Execution-System (1)
- Marktspiegel (3)
- Marktübersicht (1)
- Mensch und Technik (1)
- Mobilität in Deutschland (1)
- Modulare IT-Systeme (1)
- Modularität (2)
- Modularization (1)
- Nachhaltigkeit (6)
- Natural-Language-Processing (1)
- Nutzenpotenzial (1)
- PPC (1)
- PPS (5)
- PPS sys Markt FIR 9141 (1)
- Plattform Industrie 4.0 (1)
- Predictive Maintenance (1)
- Process Management (1)
- Process-Mining (4)
- Procurement Strategy (1)
- Product Characteristics (1)
- Production Planning (1)
- Produktion (1)
- Produktionsplanung (5)
- Produktionsplanung und -steuerung (2)
- Produktionsprozess (1)
- Produktionssteuerung (2)
- Prozessanalyse (2)
- Prozesse (1)
- Prozessmanagement (1)
- Prozessmodell (1)
- Rapid Prototyping (1)
- Reaktionsfähigkeit (1)
- Reifegradmodell (1)
- Resilienz (3)
- Risikomanagement (2)
- Rückmeldedaten (1)
- SCEM (1)
- SCM (1)
- SV7133 (1)
- SV7248 (1)
- SV7291 (1)
- SV7315 (1)
- SV7335 (1)
- SV7392 (1)
- SV7420 (1)
- SV7421 (1)
- SV7422 (1)
- SV7432 (1)
- SV7435 (1)
- SV7447 (1)
- Schatten-IT (1)
- Schienengüterverkehr (1)
- Schienenverkehr (2)
- Sector coupling (1)
- Sektorenkopplung (1)
- Software (2)
- Softwareauswahl (1)
- Stammdaten (1)
- Stammdatenqualität (1)
- Studie (1)
- Subscription (1)
- Supply Chain Event Management (1)
- Supply Chain Management (1)
- Supply Risks (1)
- Supply chain event management (1)
- Supply chain management (1)
- Supply-Chain (1)
- Supply-Chain-Design (1)
- Supply-Chain-Event-Management (1)
- Supply-Chain-Management (6)
- Supply-Chain-Resilienz (1)
- Supply-Chain-Risk-Management (1)
- Sustainability (2)
- Technologieauswahl (1)
- Tracking & Tracing (1)
- Trovarit (1)
- U1032 (1)
- Vorgehen (1)
- Wertschöpfungsnetzwerke (3)
- Whitepaper (1)
- additive Fertigung (2)
- additive manufacturing (3)
- benefits (1)
- betriebliche Rückmeldedaten (1)
- betriebliche Rückmeldung (1)
- business applications (1)
- business case (1)
- configuration (1)
- cost benefit model (2)
- cost-benefit-model (1)
- costs (1)
- data democratization (1)
- disruptions (2)
- enterprise resource planning system (1)
- fourth industrial revolution (1)
- framework (1)
- gap analysis (1)
- incorrect data (1)
- information system (2)
- literature review (1)
- manufacturing (2)
- modularization (1)
- order processing (1)
- process mining (1)
- procurement (1)
- procurement strategy (1)
- railconnect (2)
- resilience (2)
- resilience principles (1)
- rev (8)
- supply risks (1)
- sustainability (1)
- textile supply chain (1)
- use case canvas (1)
Institute
- Produktionsmanagement (66) (remove)
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Data-driven transparency in end-to-end operations in real-time is seen as a key benefit of the fourth industrial revolution. In the context of a factory, it enables fast and precise diagnoses and corrections of deviations and, thus, contributes to the idea of an agile enterprise. Since a factory is a complex socio-technical system, multiple technical, organizational and cultural capabilities need
to be established and aligned. In recent studies, the underlying broad accessibility of data and corresponding analytics tools are called “data democratization”. In this study, we examine the status quo of the relevant capabilities for data democratization in the manufacturing industry.
(1) and outline the way forward.
(2) The insights are based on 259 studies on the digital maturity of factories from multiple industries and regions of the world using the acatech Industrie 4.0 Maturity Index as a framework. For this work, a subset of the data was selected.
(3) As a result, the examined factories show a lack of capabilities across all dimensions of the framework (IT systems, resources, organizational structure, culture).
(4) Thus, we conclude that the outlined implementation approach needs to comprise the technical backbone for a data pipeline as well as capability building and an organizational transformation.
Die Globalisierung und der steigende Wettbewerbsdruck erfordern, dass Supply Chains heutzutage komplexe Anforderungen erfüllen. Dabei müssen sie gleichzeitig flexibel genug sein, um an kurzfristige Veränderungen angepasst werden zu können. Ein unternehmensübergreifender Datenaustausch ermöglicht den Akteuren durch schnelle Informationsweitergabe über auftretende Ereignisse entlang der Supply Chain, dynamisch auf aktuelle Gegebenheiten zu reagieren und dadurch hervorgerufene mögliche Schäden zu minimieren. Auch wenn viele Unternehmen mit der Bereitstellung von Daten noch zurückhaltend sind, gehen die Vorteile des Datenaustauschs weit über die Verkürzung der Reaktionszeit hinaus.
The environment in which companies operate is increasingly volatile and complex. This results in an increased exposure to disruptions. Past disruptions have especially affected procurement. Thus, companies need to prepare for disruptions. The preparedness for disruptions in the context of procurement is significantly influenced by the design of the procurement strategy. However, a high number of purchased articles and a variety of influencing factors lead to high complexity in procurement. The systematic design of the procurement strategy should therefore take into account the criticality of the purchased articles. This enables to focus on the purchased articles that have a high impact on the disruption preparedness. Existing approaches regarding the design of the procurement strategy in uncertain environments either lack practical applicability and objective evaluation or focus on the criticality of raw materials rather than of purchased articles. Therefore, a data-based approach for the systematic design of the procurement strategy in the context of the Internet of Production has been proposed. One central aspect of this approach is the identification of success-critical purchased articles. Thus, this paper proposes a framework for characterizing purchased articles regarding supply risks by combining two systematic analyses. First, a systematic literature review is performed to answer the question of what factors can be used to describe the supply risks of purchased articles. The results are analyzed regarding sources and impacts of risks and thus contribute to a structured characterization of supply risks. Second, existing criticality assessment approaches for raw materials are analyzed to identify categories and indicators that describe purchased articles. The results of both reviews provide the basis for linking product characteristics with supply risks and assessing product criticality which will be integrated into an app prototype.
Im "Data Quality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des FIR und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Erstes Ziel ist die Entwicklung einer Methodik und Toolchain für das betriebliche Stammdatenmanagement zur Evaluierung und Sicherung der Stammdatenqualität. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. Außerdem wird die DQC-Methodik zur Bewertung der Stammdatenqualität im Unternehmen beschrieben.
Das primäre Ziel des Projekts 'AM 4 Industry' bestand darin, ein Modell zu entwickeln, das die Vorteile der Integration von Additiver Fertigung in die Produktionstechnologien eines Unternehmens aufzeigt. Hierzu wurden sowohl die resultierenden Kosten als auch der durch die Produktion mit Additiver Fertigung generierte Benefit identifiziert.
Das Kosten-Nutzen-Modell soll ein für die Industrie praktikables Modell bieten, das den Vergleich verschiedener Produktionsmethoden für bestimmte Teile ermöglicht. Dadurch sollen Unternehmen befähigt werden, fundierte Entscheidungen über die potenzielle Einbeziehung der Additiven Fertigung in ihre Produktion zu treffen. Heutzutage basieren diese Entscheidungen oft auf unvollständigen Informationen, Teilkosten und unsachgemäßem Urteilsvermögen.
Der Einsatz der Additiven Fertigung zur Herstellung von Teilen verändert oft mehr als lediglich einen Einzelaspekt in der Lieferkette. Aus diesem Grund ist es schwierig, einen klaren Überblick über den möglichen Nutzen sowie eventuelle Kosten zu erhalten. Für einen Vergleich, der alle Aspekte berücksichtigt, ist eine ganzheitliche Betrachtung erforderlich. Hierzu müssen alle einflussnehmenden Faktoren betrachtet werden. Dazu zählt insbesondere die fundierte Betrachtung des gesamten Produktlebenszyklus: Produktdesign / Engineering, Produktion / Qualität, Service / After Sales. Die Vorteile der Produktion mit Additiver Fertigung sind zum Beispiel die Funktionsintegration in einzelne Bauteile oder neue Möglichkeiten in der Ersatzteilfertigung. Demgegenüber stehen jedoch u. a. teilweise längere Produktionszeiten und hohe Implementierungskosten der Technologie.
Da es nicht möglich ist, den Nutzen der Additiven Fertigung allein mit einem klassischen Kostenvergleich zu bewerten, musste ein neues generisches Modell entwickelt werden, das die über den gesamten Lebenszyklus entstehenden Kosten mit den technologischen Vorteilen vergleicht. Mit diesem Wissen erhalten Unternehmen einen Wettbewerbsvorteil, denn anstelle von zeitaufwändigen Trial-and-Error-Tests kann das Modell den Entscheidungsprozess beschleunigen und die Erfolgsrate der Entscheidungen erhöhen.
Darüber hinaus wird ein wirtschaftlicherer Einsatz der Technologie ermöglicht, indem bei der Anwendung des entwickelten Modells neue Vorteile Additiver Fertigung identifiziert und schließlich nutzbar gemacht werden können. Die Anwendbarkeit des Modells in einem frühen Stadium - auch ohne genaue Daten - ermöglicht es Anwendern, sich bei ihren Bemühungen auf erfolgversprechende Anwendungsfälle zu konzentrieren und damit Ressourcen effizienter einzusetzen.
Künstliche Intelligenz ist eine der Schlüsseltechnologien der Digitalen Transformation. Auch das ERP-System, also der digitale Prozess- und Datenhub in Unternehmen, wird zunehmend mit KI-Technologien angereichert. Bis dato sind jedoch die Zahl der Anwendungsfälle im ERP-Umfeld und das Angebot der ERP-Anbieter im Bereich KI noch überschaubar. KI in Business Anwendungen wird zukünftig jedoch viele Facetten haben. So werden KI-gestützte Datenanalytik, Prognosesysteme, Suchmaschinen, maschinelle Übersetzungen, Bots und wissensbasierte Expertensysteme sehr schnell Einzug in Geschäftsanwendungen halten. Somit steht fest: Die Einbindung und Nutzung von Künstlicher Intelligenz wird die ERP-Landschaft deutlich verändern.
Das Produktionssystem ist ein offenes, sozio-technisches System. Es besitzt eine komplexe Struktur, in der Menschen, Maschinen, Material und Informationen zusammenwirken, um eine Wertsteigerung zu erreichen. Das Produktionssystem steht in ständiger Interaktion mit seiner Umwelt (Westkämper et al. 2013). So sind die Kunden-Lieferanten-Beziehungen von Produktionssystemen häufig dynamisch und instabil. In dieser Gesamtkomplexität können Störungen auftreten, z.B. Maschinen- und Personalausfall sowie Fehlmaterial, die zu Termin- und Lieferverzögerungen führen. Dabei bildet die kundenbezogene Liefertermintreue mit Abstand die führende logistische Zielgröße für produzierende Unternehmen in Deutschland (Brambring et al. 2013). Vor allem im Maschinen- und Anlagenbau, der durch eine besonders komplexe Auftragsabwicklung geprägt ist, stellt eine hohe Liefertermintreue einen bedeutenden Wettbewerbsvorteil dar. Sie wird häufig als Indikator für Prozessqualität herangezogen, welche dem Kunden Zuverlässigkeit demonstriert und zugleich eine interne Voraussetzung für die Planbarkeit des eigenen Geschäftsbetriebs ist (VDMA 2007). Während eine planmäßige und somit termintreue Abwicklung des Leistungserstellungsprozesses Kundenbindung bewirkt, führen Terminüberschreitungen häufig zum Verlust von Kundenbeziehungen sowie Vertragsstrafen (Arnolds et al. 2016).Störungen im Produktionssystem gefährden die Liefertermintreue und damit die Kundenzufriedenheit (Bosshardt 2007). Durch Gegenmaßnahmen entstehen außerdem Zusatzkosten, z.B. durch Zusatzschichten oder Auslagerung von Fertigungsschritten, die die Profitabilität der Aufträge gefährden können. Daher ist es für Unternehmen wichtig, bei Störungen nicht nur die potenziellen Handlungsoptionen, sondern viel mehr deren finanziellen Auswirkungen auf das Produktionssystem zu kennen, um eine optimale Strategie entwickeln zu können. Nur diese Transparenz ermöglicht es Unternehmen, die negativen finanziellen Auswirkungen gegen die negativen Auswirkungen auf die Kundenbeziehungen abzuwägen. In der Praxis stellt sich diese Aufgabe allerdings als sehr schwierig heraus. Unternehmen reagieren häufig nur reaktiv und erfahrungsbasiert. Mitarbeiter müssen sowohl die komplexen Abläufe im Betrieb kennen als auch potenzielle Handlungsoptionen sowie deren Auswirkungen abschätzen können. Dabei müssen die Mitarbeiter eine Komplexität überwinden, die insbesondere bei Einzel- und Kleinserien aufgrund der hohen Vielfalt von Produkten und Prozessen besonders hoch ist. Dies trifft besonders auf KMU zu, die nur über rudimentäre Softwareunterstützungen verfügen.In der Folge werden häufig suboptimale und teure Maßnahmen getroffen. Gleichwohl sind die finanziellen Auswirkungen nicht immer direkt nachvollziehbar, was die finanzielle Stabilität des Unternehmens gefährdet. Darüber hinaus kann die Liefertermintreue der Aufträge, die nicht direkt durch die Störungen betroffen sind, stark negativ beeinflusst werden. Die Summe der daraus entstehenden Folgen kann sich in manchen Fällen stärker auf das Unternehmen auswirken als die Verspätung eines einzelnen, wenn auch wichtigen Auftrages, der direkt durch die Störung betroffen ist. Das durchgeführte Forschungsprojekt „EkuPro“ unterstützt Unternehmen bei der Bewältigung dieser Herausforderungen, indem eine transparente Entscheidungsunterstützung durch das entwickelte Softwaretool ermöglicht wird.
Zielsetzung:
Das Ziel des erarbeitenden Forschungsprojektes war die Entwicklung eines Tools zur objektiven Entscheidungsunterstützung, mit dem kompensatorische Maßnahmen zur Beschleunigung einzelner Aufträge quantitativ und finanziell bewertet werden können. Das Tool unterstützt den Produktionssteuerer, indem es bei kurzfristigen Entscheidungen einen Überblick über die möglichen Handlungsalternativen zur Verfügung stellt. Der Produktionssteurer kann somit auf Basis der angezeigten potenziell entstehenden Kosten eine optimale Entscheidung treffen. Zur Unterstützung wurden die Simulationsergebnisse visualisiert, um die Analyse zu erleichtern. Zudem ist das Tool auf mobilen Endgeräten einsatzfähig. Das Grundprinzip des Tools besteht darin, beim Auftreten einer Störung zunächst die aktuelle Situation des Produktionssystems und die Störung selbst zu erfassen. Dabei werden interne und externe Störungen berücksichtigt, wobei externe Störungen nicht direkt, sondern durch ihre Auswirkungen auf die interne Produktionslogistik beschrieben werden. Die notwendigen Daten zur Abbildung der aktuellen Situation sollen den gängigen Systemen, z.B. MES und ERP, entnommen werden. Auf dieser Basis kann der Produktionsplaner verschiedene Szenarien definieren, die jeweils ein unterschiedliches Set an Maßnahmen beinhalten. Die Auswirkung dieser Maßnahmen wird mithilfe einer Software simuliert und die Ergebnisse, vor allem die Liefertermintreue der Aufträge sowie die finanziellen Mehrkosten, werden visualisiert. Dadurch werden die Szenarien untereinander quantitativ vergleichbar. Dies ermöglicht dem Produktionsplaner die Auswahl einer aus seiner Sicht sinnvollen Maßnahmenkombination.
Gegenüber den klassischen Systemen, z.B. MES und ERP, hat das Tool die folgenden Vorteile:
Zielgerichtete Entscheidungsunterstützung
Quantitative Vorhersage durch Simulation
Systematische Integration der Kostenermittlung und Liefertermintreue
Entgegen dem ursprünglichen Ziel, nur die Kosten des direkt durch die Störung betroffenen, verzögerten Auftrages zu betrachten, wurde in Absprache mit dem projektbegleitenden Ausschuss (pbA) entschieden, die finanzielle Auswirkung aller Aufträge zu berücksichtigen. Nur dadurch kann die Gesamtauswirkung der Maßnahmen vollständig untersucht und gegeneinander abgewogen werden. Diese Erweiterung der Zielstellung des Projektes stellt einen erheblichen Mehrwert im Vergleich zum ursprünglichen Forschungsvorhaben dar.
DaFuER - Anwendung der Datenfusion bei der Erfassung und Speicherung
betrieblicher Rückmeldedaten
(2021)
Zentrale Herausforderung der Globalisierung und Digitalisierung für produzierende Unternehmen in Deutschland sind steigende Kundenanforderungen nach individuelleren Produkten bei gleichzeitig stetig kürzer werdenden Lieferzeiten. Insbesondere für kleine und mittlere Unternehmen steigt der Kosten- und Innovationsdruck durch wachsende Konkurrenz aus Niedriglohnländern und einen schrumpfen-den Technologievorsprung. Aus diesen Herausforderungen entsteht die Anforderung einer echtzeitfähigen und effizienten Produktionsplanung und -steuerung, die eine fundierte und kurzfristige Entscheidungsfindung erlaubt. Grundlage für eine leistungsstarke Produktionsplanung und -steuerung ist eine hohe Informationsverfügbarkeit. Das allein ist jedoch keine hinreichende Bedingung für eine effiziente Produktionsplanung und -steuerung, da nur bei einer ausreichenden Datenqualität eine zuverlässige Entscheidungsfindung möglich ist. Ferner bieten die zunehmende Digitalisierung und Vernetzung steigendes Nutzenpotenzial für datenbasierte Wertschöpfung, was die Relevanz einer hohen Datenqualität zusätzlich verstärkt. Zentrale Herausforderung der Steigerung der Datenqualität sind die Investitionskosten der Implementierung von entsprechenden Maßnahmen. Dabei zeichnen sich kleine und mittlere Unternehmen (KMU) insbesondere durch eine beschränkte Investitionsfähigkeit aus.
Auf die Erhöhung der Datenqualität eines aggregierten Datensatzes zielt die Datenfusion durch Kombination verschiedener Datenquellen ab. Die unterschiedlichsten Methoden der Datenfusion werden bereits seit längerem in nicht produktionsnahen Bereichen an-gewendet. Das Forschungsprojekt „DaFuER“ unterstützt bei dem Transfer der Methoden in das Produktionsumfeld. Hierbei werden vor allem kleine und mittlere Unternehmen bei der Optimierung ihrer Datenqualität angeleitet, indem eine transparente Entscheidungsunterstützung u. a. durch einen Leitfaden zur Datenfusion und ein Online-Tool ermöglicht wird.
Das FIR an der RWTH Aachen und das Industrie 4.0 Maturity Center untersuchten Anfälligkeiten von Unternehmen gegenüber Krisensituationen: Die Expertise "Wertschöpfungsnetzwerke in Zeiten von Infektionskrisen" nimmst sich die COVID-19-Pandemie als Beispiel (Herausgeber Forschungsbeirat der Plattform Industrie 4.0 / acatech - Deutsche Akademie der Technikwissenschaften). In einer empirischen Fragebogenstudie wurden im Zeitraum von Mitte November 2020 bis Mitte Januar 2021 Unternehmen hinsichtlich der Auswirkungen der COVID-19-Pandemie befragt. Unter anderem sollte die Relevanz und der aktuelle Umsetzungsstand potenzieller Maßnahmen zur Steigerung der Resilienz eingeschätzt werden. An dieser Befragung nahmen vorwiegend produzierende Unternehmen unterschiedlicher Größe und aus verschiedenen Branchen u. a. Maschinen- und Anlagenbau, Automobil-, Konsumgüter- und Metallindustrie teil. Auf Basis dieser Ergebnisse wurden Potenziale und Handlungsoptionen identifiziert, die Unternehmen bei der resilienten Gestaltung ihrer Wertschöpfungsnetzwerke unterstützen können.
Das FIR an der RWTH Aachen und das Industrie 4.0 Maturity
Center untersuchten die Anfälligkeit von Unternehmen
gegenüber Krisensituationen: Die Expertise "Wertschöpfungsnetzwerke
in Zeiten von Infektionskrisen“ nimmt sich die COVID-19-Pandemie als Beispiel (Herausgeber Forschungsbeirat der Plattform Industrie 4.0/acatech – Deutsche Akademie der Technikwissenschaften). In einer empirischen Fragebogenstudie wurden im Zeitraum von Mitte November 2020 bis Mitte Januar 2021 Unternehmen hinsichtlich der Auswirkungen der COVID-19-Pandemie befragt. Unter anderem sollte die Relevanz
und der aktuellen Umsetzungsstand potenzieller Maßnahmen zur Steigerung der Resilienz eingeschätzt werden. An dieser Befragung nahmen vorwiegend produzierende Unternehmen unterschiedlicher Größe und aus verschiedenen Branchen u. a. Maschinen- und Anlagenbau, Automobil-, Konsumgüter- und Metallindustrie teil. Auf Basis dieser Ergebnisse wurden Potenziale und Handlungsoptionen identifiziert, die Unternehmen bei der resilienten Gestaltung ihrer Wertschöpfungsnetzwerke unterstützen können.
Recent developments have demonstrated the challenges and impacts of disruptions in supply chains. Current disruptions especially affected procurement and have indicated a lack of resilience. Resilience aims at being prepared, decreasing the impact, and enabling fast reactions and adaption in case of disruptions. The systematic design of resilience in procurement is significantly influenced by proactive and strategic actions before disruptions occur. Thus, the procurement strategy plays a major role when increasing resilience. The procurement strategy is influenced by various factors. Thus, a data-based approach for its systematic design is required. Based on the vision of the Internet of Production (IoP), this paper presents a data-based approach for designing procurement strategies. The IoP is a framework that enables cross-domain collaboration by providing semantically adequate and contextual data from production, development, and usage in real-time at an appropriate granularity. The paper aims at analyzing the state of the art regarding the design of procurement strategy in uncertain environments and the identification of success-critical purchased articles. Based on this, an approach is developed that is structured along the action research cycle and uses CRISP-DM to further detail the different steps. Through the use of these frameworks, both practical applicability and objective evaluation are ensured. The proposed approach thus allows the systematic evaluation of purchased articles regarding supply risks and lies the foundation for the adaption of the procurement strategy. The resulting approach is the foundation for future practical application of different use cases. As one central use case for the presented approach, the paper introduces the textile industry and its supply chains.
Als Beispiel einer globalen Krisensituation zeigt die COVID-19-Pandemie eindrucksvoll die Schwachstellen heutiger Wertschöpfungsnetzwerke. Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke steigt für Unternehmen die Bedeutung einer resilienten Gestaltung derselben. Dabei wird davon ausgegangen, dass ähnliche Krisensituationen in Zukunft häufiger auftreten werden. Ziel dieser Expertise ist es, Unternehmen bei der Identifikation von Potenzialen und Maßnahmen für die resiliente Gestaltung ihrer Wertschöpfungsnetzwerke zu unterstützen.
Companies in the manufacturing sector are confronted with an increasingly dynamic environment. Thus, corporate processes and, consequently, the supporting IT landscape must change. This need is not yet fully met in the development of information systems. While best-of-breed approaches are available, monolithic systems that no longer meet the manufacturing industry's requirements are still prevalent in practical use. A modular structure of IT landscapes could combine the advantages of individual and standard information systems and meet the need for adaptability. At present, however, there is no established standard for the modular design of IT landscapes in the field of manufacturing companies' information systems. This paper presents different ways of the modular design of IT landscapes and information systems and analyzes their objects of modularization. For this purpose, a systematic literature research is carried out in the subject area of software and modularization. Starting from the V-model as a reference model, a framework for different levels of modularization was developed by identifying that most scientific approaches carry out modularization at the data structure-based and source code-based levels. Only a few sources address the consideration of modularization at the level of the software environment-based and software function-based level. In particular, no domain-specific application of these levels of modularization, e.g., for manufacturing, was identified. (Literature base: https://epub.fir.de/frontdoor/index/index/docId/2704)
Um in komplexen Wertschöpfungsnetzwerken und an der Schnittstelle zwischen Kunden und Lieferanten valide, datenbasierte Entscheidungen treffen zu können, muss eine hohe Datenqualität vorliegen. Dabei mangelt es oft an einem Datenqualitätsmanagement (DQM), das den konkreten Anwendungsfall und den überbetrieblichen Austausch berücksichtigt. Wir stellen ein universales Rahmenwerk für das überbetriebliche DQM vor, das Ziele, Prozesse, relevante Daten und Akteure erfasst und den Grundstein für eine ganzheitliche Datenqualitätsstrategie legt.
Die verarbeitende Industrie in Deutschland steht vor der Transformation von der bisher vorherrschenden ökonomisch orientierten Produktion hin zu einer nachhaltigen Produktion. Durch die Anpassung von Parametern der Produktionsplanung und -steuerung, wie z. B. der Losgröße durch u. a. die Konsolidierung von Transportaufwänden oder geringe Reinigungsaufwände, kann dabei eine nachhaltigere Produktion erreicht werden. Hierfür wurde mittels einer systematischen Methodik ein digitaler Schatten konzeptioniert, der eine nachhaltige Konfiguration von Losgrößen ermöglicht. Dafür erfolgen eine Aggregation von Daten aus verschiedenen Informationssystemen und die Simulation des Verhaltens eines Produktionssystems bei veränderten Losgrößen. Diese ermöglichen eine optimierte Auslegung der Losgröße, basierend auf ökonomischen und ökologischen Zielgrößen.
Nachhaltige Lieferketten
(2021)
Das Thema der Nachhaltigkeit ist nicht zuletzt aufgrund aktueller Entwicklungen zunehmend in den gesellschaftlichen und unternehmerischen Fokus gelangt. Pandemien, Naturkatastrophen, aber auch regulatorische Auflagen zur Erfüllung von Klimaschutzzielen haben zu einem Umdenken geführt. Im Rahmen des Thementags „Sustainable Supply-Chain-Management“ hat das FIR an der RWTH Aachen zusammen mit Expert:innen aus Wirtschaft und Forschung Thesen erarbeitet, die widerspiegeln, wie das Thema Nachhaltigkeit aktuell in deutschen Unternehmen wahrgenommen und umgesetzt wird und welche besondere Bedeutung dem Supply-Chain-Management dabei zukommt. Nachhfolgend werden diese und deren Implikationen für die Praxis vorgestellt.
Based on the increasingly complex value creation networks, more and more event-based systems are being used for decision support. One example of a category of event-based systems is supply chain event management. The aim is to enable the best possible reaction to critical exceptional events based on event data. The central element is the event, which represents the information basis for mapping and matching the process flows in the event-based systems. However, since the data quality is insufficient in numerous application cases and the identification of incorrect data in supply chain event management is considered in the literature, this paper deals with the theoretical derivation of the necessary data attributes for the identification of incorrect event data. In particular, the types of errors that require complex identification strategies are considered. Accordingly, the relevant existing error types of event data are specified in subtypes in this paper. Subsequently, the necessary information requirements and information available regarding identification are considered using a GAP analysis. Based on this gap, the necessary data attributes can then be derived. Finally, an approach is presented that enables the generation of the complete data set. This serves as a basis for the recognition and filtering out of erroneous events in contrast to standard and exception events.