Refine
Document Type
- Article (7)
- Book (4)
- Part of a Book (6)
- Conference Proceeding (9)
- Contribution to a Periodical (20)
- Internet Paper (2)
- Report (6)
- Working Paper (12)
Language
- German (53)
- English (11)
- Multiple languages (2)
Is part of the Bibliography
- no (66)
Keywords
- 01 (3)
- 02 (10)
- 03 (4)
- 3PhasenKonzept (3)
- AM4Industry (3)
- APS-System (1)
- Additive Fertigung (1)
- Algorithmus (1)
- Anforderungsmanagement (1)
- Anomaly detection (1)
Institute
- Produktionsmanagement (66) (remove)
The environment in which companies operate is increasingly volatile and complex. This results in an increased exposure to disruptions. Past disruptions have especially affected procurement. Thus, companies need to prepare for disruptions. The preparedness for disruptions in the context of procurement is significantly influenced by the design of the procurement strategy. However, a high number of purchased articles and a variety of influencing factors lead to high complexity in procurement. The systematic design of the procurement strategy should therefore take into account the criticality of the purchased articles. This enables to focus on the purchased articles that have a high impact on the disruption preparedness. Existing approaches regarding the design of the procurement strategy in uncertain environments either lack practical applicability and objective evaluation or focus on the criticality of raw materials rather than of purchased articles. Therefore, a data-based approach for the systematic design of the procurement strategy in the context of the Internet of Production has been proposed. One central aspect of this approach is the identification of success-critical purchased articles. Thus, this paper proposes a framework for characterizing purchased articles regarding supply risks by combining two systematic analyses. First, a systematic literature review is performed to answer the question of what factors can be used to describe the supply risks of purchased articles. The results are analyzed regarding sources and impacts of risks and thus contribute to a structured characterization of supply risks. Second, existing criticality assessment approaches for raw materials are analyzed to identify categories and indicators that describe purchased articles. The results of both reviews provide the basis for linking product characteristics with supply risks and assessing product criticality which will be integrated into an app prototype.
Heutige Implementierungsprojekte sind davon geprägt, dass nach dem Go-Live keine Prozesse zur Verfügung stehen, die es ermöglichen, dass neue Anforderungen effizient und kostengünstig umgesetzt werden. Dies resultiert in einem sinkenden Nutzen für die Anwender. Erst, wenn das eingesetzte System durch zahlreiche Workarounds und selbst entwickelte Anwendungen nicht mehr handhabbar ist, werden kostenintensive Anpassungs- und Neueinführungsprojekte angestoßen. Ein Ausweg hieraus kann ein konsequent umgeetztes, kontinuierliches und kurzzyklisches Anforderungsmanagement sein, dass Prozesse und eingesetzte IT-Lösungen deckungsgleich hält.
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
In der neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR e. V. an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten. Handlungsoptionen für Unternehmen, Verbände, Politik und Wissenschaft zeigen auf, wie der Nutzungsgrad der Datenbasis erhöht werden kann und wie sich Potenziale bei der Monetarisierung ausschöpfen lassen. Der Fokus liegt dabei auf produzierenden Unternehmen.
Dieser Bericht enthält die zentralen Ergebnisse einer Studie des Center Integrated Business Applications im Auftrag der proALPHA Business Solutions GmbH und wurde in Kooperation mit dem FIR e. V. an der RWTH Aachen durchgeführt.
Ziele der Studie:
- Analyse des Marktes von CO2-Management-Software,
- die Bestimmung der Informationsverfügbarkeit zur CO2-Bilanzierung sowie potenzieller Stellschrauben zur CO2-Reduktion mittels Business-Software.
For developing a European industrial cooperation and involvement in the furniture industry, the international research project INEDIT conducted a survey for furniture customers. By finding out the needs and wishes of the customer regarding innovative products and the production process the project will establish a new way for designing and producing furniture. Within INEDIT a platform is built on which customized, technologically innovative and sustainable furniture can be created and produced in a co-creation process. The furniture industry should thus become significantly more flexible, transparent and sustainable. Following the "do-it-together" approach, a business ecosystem will be generated which creates added value not only for customers but also for designers, suppliers and manufacturing companies. In order to involve the customer even more actively in the design process and the production, the platform will provide access to a mix of digital and physical services and is linked to all other stakeholders in the value chain. To match the platform and the process to the needs, wishes and demands of the customer an anonymous survey with 300 participants was developed and conducted. By analyzing the survey, important factors were found for buying and for using furniture considering new technological inventions (e.g. 3D-printing or smart objects), sustainability of the products and the production process. Furthermore, the potential customer-group and their usage of the do-it-together process and additional activities can be tightened.
DaFuER - Anwendung der Datenfusion bei der Erfassung und Speicherung
betrieblicher Rückmeldedaten
(2021)
Zentrale Herausforderung der Globalisierung und Digitalisierung für produzierende Unternehmen in Deutschland sind steigende Kundenanforderungen nach individuelleren Produkten bei gleichzeitig stetig kürzer werdenden Lieferzeiten. Insbesondere für kleine und mittlere Unternehmen steigt der Kosten- und Innovationsdruck durch wachsende Konkurrenz aus Niedriglohnländern und einen schrumpfen-den Technologievorsprung. Aus diesen Herausforderungen entsteht die Anforderung einer echtzeitfähigen und effizienten Produktionsplanung und -steuerung, die eine fundierte und kurzfristige Entscheidungsfindung erlaubt. Grundlage für eine leistungsstarke Produktionsplanung und -steuerung ist eine hohe Informationsverfügbarkeit. Das allein ist jedoch keine hinreichende Bedingung für eine effiziente Produktionsplanung und -steuerung, da nur bei einer ausreichenden Datenqualität eine zuverlässige Entscheidungsfindung möglich ist. Ferner bieten die zunehmende Digitalisierung und Vernetzung steigendes Nutzenpotenzial für datenbasierte Wertschöpfung, was die Relevanz einer hohen Datenqualität zusätzlich verstärkt. Zentrale Herausforderung der Steigerung der Datenqualität sind die Investitionskosten der Implementierung von entsprechenden Maßnahmen. Dabei zeichnen sich kleine und mittlere Unternehmen (KMU) insbesondere durch eine beschränkte Investitionsfähigkeit aus.
Auf die Erhöhung der Datenqualität eines aggregierten Datensatzes zielt die Datenfusion durch Kombination verschiedener Datenquellen ab. Die unterschiedlichsten Methoden der Datenfusion werden bereits seit längerem in nicht produktionsnahen Bereichen an-gewendet. Das Forschungsprojekt „DaFuER“ unterstützt bei dem Transfer der Methoden in das Produktionsumfeld. Hierbei werden vor allem kleine und mittlere Unternehmen bei der Optimierung ihrer Datenqualität angeleitet, indem eine transparente Entscheidungsunterstützung u. a. durch einen Leitfaden zur Datenfusion und ein Online-Tool ermöglicht wird.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
Based on the increasingly complex value creation networks, more and more event-based systems are being used for decision support. One example of a category of event-based systems is supply chain event management. The aim is to enable the best possible reaction to critical exceptional events based on event data. The central element is the event, which represents the information basis for mapping and matching the process flows in the event-based systems. However, since the data quality is insufficient in numerous application cases and the identification of incorrect data in supply chain event management is considered in the literature, this paper deals with the theoretical derivation of the necessary data attributes for the identification of incorrect event data. In particular, the types of errors that require complex identification strategies are considered. Accordingly, the relevant existing error types of event data are specified in subtypes in this paper. Subsequently, the necessary information requirements and information available regarding identification are considered using a GAP analysis. Based on this gap, the necessary data attributes can then be derived. Finally, an approach is presented that enables the generation of the complete data set. This serves as a basis for the recognition and filtering out of erroneous events in contrast to standard and exception events.