Refine
Document Type
- Article (6)
- Book (4)
- Part of a Book (6)
- Conference Proceeding (9)
- Contribution to a Periodical (20)
- Internet Paper (2)
- Report (6)
- Working Paper (12)
Language
- German (52)
- English (11)
- Multiple languages (2)
Is part of the Bibliography
- no (65) (remove)
Keywords
- 01 (3)
- 02 (10)
- 03 (3)
- 3PhasenKonzept (3)
- AM4Industry (3)
- APS-System (1)
- Additive Fertigung (1)
- Algorithmus (1)
- Anforderungsmanagement (1)
- Anomaly detection (1)
Institute
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Data-driven transparency in end-to-end operations in real-time is seen as a key benefit of the fourth industrial revolution. In the context of a factory, it enables fast and precise diagnoses and corrections of deviations and, thus, contributes to the idea of an agile enterprise. Since a factory is a complex socio-technical system, multiple technical, organizational and cultural capabilities need
to be established and aligned. In recent studies, the underlying broad accessibility of data and corresponding analytics tools are called “data democratization”. In this study, we examine the status quo of the relevant capabilities for data democratization in the manufacturing industry.
(1) and outline the way forward.
(2) The insights are based on 259 studies on the digital maturity of factories from multiple industries and regions of the world using the acatech Industrie 4.0 Maturity Index as a framework. For this work, a subset of the data was selected.
(3) As a result, the examined factories show a lack of capabilities across all dimensions of the framework (IT systems, resources, organizational structure, culture).
(4) Thus, we conclude that the outlined implementation approach needs to comprise the technical backbone for a data pipeline as well as capability building and an organizational transformation.
Durch die Globalisierung haben sich in den letzten Jahrzehnten überwiegend internationale und hochkomplexe Lieferketten entwickelt. Nationale und internationale Herausforderungen, wie beispielsweise der Brexit, die Corona-Pandemie, Handelskriege und Protektionismus oder auch verschiedene Naturkatastrophen haben in der Vergangenheit gezeigt, dass die Relevanz eines ganzheitlichen Supply-Chain-Risikomanagements durch den Anstieg der Komplexität in den Lieferketten stark gestiegen ist.
Im Mittelpunkt der IT-Systemarchitektur der großen und kleinen Unternehmen fungiert als zentrale Instanz seit jeher das Enterprise-Resource-Planning-System (kurz ERP-System). Damit dient es als Schnittstelle zur hochgradigen Integration von Anwendungen, die verstärkt die Kernapplikationen erweitern und modernisieren. Für die zunehmend an Projekten ausgerichtete Prozessmodellierung ist das implementierte ERP-System in seiner Agilität und Offenheit zu begrenzt. Individuelle Lösungen werden für unternehmerische Anforderungen geschaffen, aber nicht in den Standard überführt. In diesem Positionspapier zeigen wir, die Fachgruppe Produktionsplanung des FIR, anhand verschiedener Sichtweisen ausgewählte Trends auf, die großes Potenzial für die Zukunft des ERP-Systems bereithalten.
We propose an integrated cost-benefit model to evaluate the economic utility of Additive Manufacturing (AM) for specific business cases. The high flexibility of AM enables novel product design possibilities and new production systems paradigms. However, in most cases AM-technologies still cannot compete with conventional mass production technologies in terms of production costs. A fundamental reason is that the benefits of AM are not considered by simple evaluation of production costs. Hence, practitioners need a holistic approach to consider costs and benefits of AM simultaneously in order to determine AM business cases. An easy to use model supports the user in identifying the relevant benefits for a specific use case and consider the added value in a cost model. The result is an interactive graph that helps users to explore new benefits and unlock their potential. The benefits are integrated into a cost model to allow a holistic quantitative evaluation of the business case. Our interactive approach based on the cytoscape graph framework helps identifying the key impact factors of the business case and makes it easy to run scenario-based analyses.
Schlüsselfaktoren für den industriellen Einsatz Additiver Fertigung in produzierenden Unternehmen
(2020)
Die Additive Fertigung (AM) ist insbesondere als Hilfsmittel bei der Produktentwicklung weit verbreitet. 71 Prozent der produzierenden Unternehmen setzen AM für die Fertigung von Prototypen und Pilotserien ein. Derzeit eignet sich AM jedoch nicht mehr nur für die Fertigung von Prototypen und Pilotserien, sondern gewinnt auch zur Herstellung von Endprodukten aus metallischen Werkstoffen an Bedeutung. Der vorliegende Beitrag verfolgt das Ziel, Schlüsselfaktoren zu identifizieren, die den industriellen Einsatz von AM in produzierenden Unternehmen am stärksten prägen. Damit wird zugleich die Grundlage geschaffen für ein systematisches Vorausdenken der Zukunft.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Im "Data Quality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des FIR und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Erstes Ziel ist die Entwicklung einer Methodik und Toolchain für das betriebliche Stammdatenmanagement zur Evaluierung und Sicherung der Stammdatenqualität. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. Außerdem wird die DQC-Methodik zur Bewertung der Stammdatenqualität im Unternehmen beschrieben.
Im Forschungsprojekt 'railconnect' erarbeitet ein Konsortium aus Industrievertretern und dem FIR an der RWTH Aachen als Forschungseinrichtung die Hebung von Digitalisierungspotenzialen im Schienengüterverkehr. Im Zuge dessen wird der aktuell stark analog geprägte Prozess der Zugabfertigung digitalisiert und eine Kollaborationsplattform für mehr Transparenz und Steigerung der Zusammenarbeit geschaffen. Neben den aktuellen Herausforderungen der Bahnbranche werden der Lösungsansatz von railconnect sowie der Lösungsweg beschrieben.
Aktuell ist noch nicht geklärt, wie sich das Zusammenwirken von Menschen und betrieblichen Anwendungssystemen bei der Bearbeitung der Aufgaben der PPS nach der Umsetzung von Industrie 4.0 entwickelt. Zur Systematisierung der Auswirkungen von Industrie 4.0 auf die PPS werden in diesem Beitrag die sechs Reifegradstufen des acatech Industrie-4.0-Maturity-Index mit der Aufgabensicht des Aachener PPS-Modells kombiniert und die Reifegradstufen für ausgewählte Unteraufgaben der PPS spezifiziert.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
Process-Mining
(2020)
Heutige Implementierungsprojekte sind davon geprägt, dass nach dem Go-Live keine Prozesse zur Verfügung stehen, die es ermöglichen, dass neue Anforderungen effizient und kostengünstig umgesetzt werden. Dies resultiert in einem sinkenden Nutzen für die Anwender. Erst, wenn das eingesetzte System durch zahlreiche Workarounds und selbst entwickelte Anwendungen nicht mehr handhabbar ist, werden kostenintensive Anpassungs- und Neueinführungsprojekte angestoßen. Ein Ausweg hieraus kann ein konsequent umgeetztes, kontinuierliches und kurzzyklisches Anforderungsmanagement sein, dass Prozesse und eingesetzte IT-Lösungen deckungsgleich hält.
Die Globalisierung und der steigende Wettbewerbsdruck erfordern, dass Supply Chains heutzutage komplexe Anforderungen erfüllen. Dabei müssen sie gleichzeitig flexibel genug sein, um an kurzfristige Veränderungen angepasst werden zu können. Ein unternehmensübergreifender Datenaustausch ermöglicht den Akteuren durch schnelle Informationsweitergabe über auftretende Ereignisse entlang der Supply Chain, dynamisch auf aktuelle Gegebenheiten zu reagieren und dadurch hervorgerufene mögliche Schäden zu minimieren. Auch wenn viele Unternehmen mit der Bereitstellung von Daten noch zurückhaltend sind, gehen die Vorteile des Datenaustauschs weit über die Verkürzung der Reaktionszeit hinaus.
SCM-Software ist heute zur Unterstützung der übergreifenden Herstellabwicklung zwischen den Unternehmen bzw. Unternehmensstandorten etabliert. Der Blick in die Praxis verdeutlicht allerdings unterschiedlichste Leitideen, Anforderungsschwerpunkte und Lösungsansätze. Außerdem setzen die Softwareanbieter verschiedenste Branchenund Funktionsschwerpunkte, was die Vergleichbarkeit zusätzlich einschränkt. Der vorliegende Beitrag gibt einen Überblick über ein SCM-Funktionsmodell zur durchgängigen standortübergreifenden und -internen Herstellabwicklung zur Bewertung der verfügbaren SCM-Software.
The environment in which companies operate is increasingly volatile and complex. This results in an increased exposure to disruptions. Past disruptions have especially affected procurement. Thus, companies need to prepare for disruptions. The preparedness for disruptions in the context of procurement is significantly influenced by the design of the procurement strategy. However, a high number of purchased articles and a variety of influencing factors lead to high complexity in procurement. The systematic design of the procurement strategy should therefore take into account the criticality of the purchased articles. This enables to focus on the purchased articles that have a high impact on the disruption preparedness. Existing approaches regarding the design of the procurement strategy in uncertain environments either lack practical applicability and objective evaluation or focus on the criticality of raw materials rather than of purchased articles. Therefore, a data-based approach for the systematic design of the procurement strategy in the context of the Internet of Production has been proposed. One central aspect of this approach is the identification of success-critical purchased articles. Thus, this paper proposes a framework for characterizing purchased articles regarding supply risks by combining two systematic analyses. First, a systematic literature review is performed to answer the question of what factors can be used to describe the supply risks of purchased articles. The results are analyzed regarding sources and impacts of risks and thus contribute to a structured characterization of supply risks. Second, existing criticality assessment approaches for raw materials are analyzed to identify categories and indicators that describe purchased articles. The results of both reviews provide the basis for linking product characteristics with supply risks and assessing product criticality which will be integrated into an app prototype.
Im "Data Quality Center" widmen sich Experten und Forscher der Hochschule Heilbronn, des FIR und des Trovarit Competence Centers Datenmanagement gemeinsam der Frage, mit welchen Werkzeugen und Methoden Unternehmen effizient die Qualität ihrer Stammdaten messen und verbessern können. Erstes Ziel ist die Entwicklung einer Methodik und Toolchain für das betriebliche Stammdatenmanagement zur Evaluierung und Sicherung der Stammdatenqualität. Der Beitrag liefert erste Ergebnisse sowie eine Marktübersicht zu MDM-Lösungen. Außerdem wird die DQC-Methodik zur Bewertung der Stammdatenqualität im Unternehmen beschrieben.