Refine
Year of publication
Document Type
- Conference Proceeding (41)
- Part of a Book (36)
- Contribution to a Periodical (19)
- Article (10)
- Lecture (5)
- Book (3)
- Working Paper (3)
- Report (2)
- Internet Paper (1)
Is part of the Bibliography
- no (120)
Keywords
- 02 (4)
- 03 (3)
- 7. EU-Forschungsrahmenprogramm (1)
- APMS (1)
- APS (1)
- Aachener PPS-Modell (1)
- Adaptability (1)
- Additive Fertigung (1)
- Advanced Planning System (1)
- Anlagenbau (1)
Institute
- Produktionsmanagement (120) (remove)
Störungen und Änderungen des Produktionssystems führen zu Kosten und Aufwänden, bieten jedoch auch die Chance zur kontinuierlichen Verbesserung.
Um Änderungsanfragen zu erfassen, können etablierte Ansätze genutzt werden. Diese vernachlässigen jedoch die Anforderungen, denen sich ein Produktionssystem im Zeitalter der Digitalisierung ausgesetzt sieht. Der vorliegende Beitrag stellt einen Ansatz zur standardisierten Erfassung von Änderungsanfragen vor, welcher die Ausgangsbasis für die Bewertung von Änderungsanfragen in bestehenden IT-Systemen bietet.
This research area focuses on the management systems and principles of a production system. It aims at controlling the complex interplay of heterogeneous processes in a highly dynamic environment, with special focus on individualized products in high-wage countries. The project addresses the comprehensive application of self-optimizing principles on all levels of the value chain. This implies the integration of self-optimizing control loops on cell level, with those addressing the production planning and control as well as supply chain and quality management aspects. A specific focus is on the consideration of human decisions during the production process. To establish socio-technical control loops, it is necessary to understand how human decisions are made in diffuse working processes as well as how cognitive and affective abilities form the human factor within production processes.
Aachener PPS-Modell
(2012)
Die Produktionsplanung und -steuerung bildet heute nach wie vor den Kern eines jeden Industrieunternehmens. Entgegen bisweilen kurzzeitigen Trends, die sich in immer wieder als „modern“ und „zeitgemäß“ proklamierten Konzepten äußern, hält das Aachener PPS-Modell am Betrachtungsansatz des ganzheitlichen Produk-tionssystems fest. Ressourcen und Prozesse eines Unternehmens und darüber hinaus auch die der Zulieferer müssen auf den Nutzen des Kunden bzw. auf die Wertschöpfung für den Kunden abgestimmt sein. Im Vordergrund steht die Optimierung des gesamten Produktionssystems. Produktionssysteme beschreiben die ganzheitliche Produktionsorganisation und beinhalten die Darstellung aller Konzepte, Methoden und Werkzeuge, die in ihrem Zusammenwirken die Effektivität und Effizienz des gesamten Produktionsablaufes ausmachen. Die Orientierung am Kundennutzen muss dabei wei-testgehend unter Vermeidung von Verschwendung erfolgen. Dafür stehen heute die Begriffe "Production System" und "Lean Thinking".Die Produktionsplanung und -steuerung ist der wesentliche Baustein eines Produktionssystems.
Die Entwicklung des Aachener PPS-Modells erfolgte mit dem Ziel, die ganzheitliche Betrachtungsweise durch Abstraktion bzw. Vereinfachung in der modellhaften Abbildung aller relevanten Zusammenhänge in der PPS zu unterstützen. Dabei lässt sich feststellen, dass eine ganzheitliche Betrachtung des Produktionssystems mit dem Fokus auf die PPS mit einem hohen Komplexitätsgrad einhergeht. Der Gesamtumfang einer solchen ganzheitlichen Betrachtungsweise macht es erforderlich, das Modell in verschiedene anforderungsspezifische Bereiche zu untergliedern und die einzelnen Teilmodelle miteinander zu verknüpfen.
Einen Überblick über das Grundverständnis und den Aufbau des Aachener PPS-Modells liefert der folgende Abschnitt. Im Anschluss daran erfolgt eine grundlegende Darstellung der Einsatzmöglichkeiten einzelner Modellteile, im Rahmen des Aachener PPS-Modells auch Referenzsichten genannt, sowie eine kurze inhaltliche Beschreibung der einzelnen Referenzsichten.
Auf Basis einer systematischen Literaturanalyse wurden insgesamt 11 Kennzahlen identifiziert, welche die Grundlage zur Beschreibung der operativen Leistungsfähigkeit von Unternehmen bilden. Die Kennzahlen wurden in die vier Leistungsdimensionen Effizienz, Qualität, Zeit und Flexibilität eingeteilt.
Die Erfüllung der klassischen Aufgaben der Produktionsplanung und -steuerung (PPS) wird aufgrund der dynamischen Anforderungsprofile, die es Unternehmen abfordern, sich strukturell und operativ kontinuierlich zu verändern, zunehmend schwieriger. Der Umgang mit Dynamik und Komplexität wird vom Störfall zum Normalfall.
Vor diesem Hintergrund wird ein innovativer Ansatz für eine Produktionsplanung und -regelung vorgestellt, der das Ziel verfolgt, die den Produktionssystemen inhärente Planungskomplexität beherrschbar zu machen.
Der Lösungsansatz basiert auf kybernetischen Strukturen, die den Beschränkungen der Wandlungs- und Lebensfähigkeit. Als grundlegender Teil des Ansatzes wird die Produktionsregelung unter Berücksichtigung des Echtzeitaspektes entworfen.
Einführung
(2012)
Die Variantenfließfertigung ermöglicht die Herstellung konfigurierbarer Produkte bei kurzen Durchlaufzeiten und geringen Beständen. Im Vergleich zu anderen Organisationsformen der Produktion gestaltet sich die Produktionsplanung und -steuerung aufgrund der Variantenvielfalt als anspruchsvoll. Im vorliegenden Beitrag wird der erste Schritt einer Methodik vorgestellt, welche für die Konfiguration der Reihenfolgeplanung entwickelt wurde.
Outsourcing of logistics operations (especially transportation, distribution & warehousing) is one of the most viable options exercised by the customers to excel in their logistic operations. Despite the growing outsourcing of logistics services to 3PL providers, both the service providers & their customers are facing tremendous problems in synchronizing the business processes & analyzing the performance using common key performance indicators. There is a huge demand for an integrated approach to help 3PL and their customers better synchronize their business processes and have common goals & perspectives. Such integrated approaches often take shape of a process oriented reference model covering many diverse aspects related to the operations & controlling of any business. In this paper, an integrated reference model to support 3PL service operations is presented. The Logistics Reference Model (LRM) developed & validated in some 3PL service companies encompasses standard business processes, performance measurement system and best practices.
DIN PAS 1074: myOpenFactory: Prozess- und Datenstandard für die überbetriebliche Auftragsabwicklung
(2007)
Diese öffentlich verfügbare Spezifikation (PAS = Publicly Available Specification) beschreibt den Prozess- und Datenstandard myOpenFactory. myOpenFactory ist ein Standard für den elektronischen Datenaustausch zwischen verschiedenen ERP-/PPS-Systemen zur Koordination der überbetrieblichen Auftrags- und Projektabwicklung.
Ziel ist es, den Aufwand zum Informationsaustausch zwischen Unternehmen im Rahmen der Auftragsabwicklung nachhaltig zu reduzieren. Der Standard besteht aus einem standardisierten Prozess- und Datenmodell, das DV-technisch in verschiedenen ERP-/PPS-Systemen implementiert werden kann, und ist frei verfügbar. Für Kleinstanwender ohne eigenes ERP-/PPS-System existiert ein Web-Cockpit, das als einzige Voraussetzung eine Internetverbindung benötigt. myOpenFactory wird insbesondere im Maschinen- und Anlagenbau angewendet, kann aber auch in anderen Branchen zum Einsatz kommen. Durch den schlanken und gleichzeitig flexiblen Umfang der Schnittstelle ist myOpenFactory besonders für kleine und mittlere Unternehmen geeignet. Der Prozess- und Datenstandard wird von der myOpenFactory eG gepflegt und weiterentwickelt.
A company can choose between three generic competitive strategies. Alongside the strategy of cost leadership are the strategy of differentiation and the strategy of focussing on niches, although we will not be discussing this latter any further here. The strategy of cost leadership is based on the achievement of “economies of scale”, so generating advantage from the benefits of cost reduction, learning curve effects and automation. In the strategy of differentiation the focus is on “economies of scope” which enable the customer-specific products to be offered, but this is generally achieved only with an increase in the complexity of products and processes. In the past it was assumed that these two strategies were mutually exclusive, as an increase in the economies of scale basically leads to a reduction in the economies of scope, and vice versa. But in order to survive in the international competitive arena companies in the high-wage countries need increasingly to offer individually tailored products at competitive prices. The target to be aimed at is therefore customer-specific products at the cost of mass production, so resolving the dilemma between economies of scale and economies of scope. For this it is necessary to optimise the alignment of all the structural elements in both the product and its production, because of the high level of their interdependence.
The areas on which we will focus our review and designs in the following will be what are known as product-production systems, or more briefly, production systems. This topic includes not only the resources and processes of the value creation systems, but also the products produced and offered on the market by a company as one connected entity. In order to tackle the challenges mentioned above, it is necessary to make it possible to measure and compare the current position of any given production system on the see-saw between economies of scale and economies of scope, and then be able to redesign specific facets of them as a second phase. A method of integrative evaluation and design of production systems is presented below for this purpose.
Prinzipien zur erfolgreichen Umsetzung von KI-Geschäftsmodellinnovationen
In Zeiten des zunehmenden globalen Wettbewerbs und hoch vernetzter Wertschöpfungsketten entwickelt sich Künstliche Intelligenz zu einem immer wichtiger werdenden Wettbewerbsfaktor für Unternehmen am Wirtschaftsstandort Deutschland. Durch den Einsatz von KI-Verfahren können nicht nur interne Geschäftsprozesse kostensenkend optimiert, sondern auch neue, digitale Geschäftsfelder und -modelle erschlossen werden. Es lassen sich zum einen Trends identifizieren, denen der Einsatz von KI in deutschen Unternehmen folgt. Zum anderen zeigt sich, dass sich KI unterschiedlich stark auf verschiedene Dimensionen innovativer Geschäftsmodelle auswirkt. Insgesamt lassen sich so Prinzipien ableiten, die die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen beschreiben.
Neue Technologie- und Anwendungstrends kennzeichnen KI-Nutzung
Die tatsächliche KI-Landschaft in den Wertschöpfungsketten von KI-nutzenden Unternehmen ist durch Trends gekennzeichnet. Diese lassen sich in Technologie- und Anwendungstrends unterteilen. Experteninterviews zeigen beispielsweise, dass KI-Anwendungen bevorzugt auf Cloud-Infrastrukturen entwickelt und bereitgestellt werden. Das wiederum rückt die Frage nach der Wahrung der Datensouveränität in den Vordergrund. Anwendung findet KI tendenziell zur Prognose und Überwachung.
Sechs Prinzipien beeinflussen die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen
Fallstudien über ein breites Spektrum der deutschen Wirtschaft beleuchten, welche Aspekte eines KI-basierten Geschäftsmodells den größten Effekt auf das Unternehmen haben. Hier lässt sich ein besonders hoher Einfluss von KI auf das Nutzenversprechen neuartiger, digitaler Leistungen der Unternehmen an die Kundinnen und Kunden feststellen. So lassen sich sechs Erfolgsprinzipien zur erfolgreichen Implementierung von KI-Technologien identifizieren, um die wirtschaftliche Nutzung von KI für Unternehmen in Deutschland im globalen Wettbewerb weiter zu steigern. So empfiehlt es sich zum Beispiel – neben der Auswahl des richtigen KI-Anwendungsfalles – ebenfalls darauf zu achten, dass die KI-Anwendung sowohl den Anbietenden wie auch den Anwendenden nützt. Diese und weitere Erfolgsprinzipien werden detailliert in der Studie Künstliche Intelligenz – Geschäftsmodellinnovationen und Entwicklungstrends beschrieben.
In short-term production management of the Internet of Production (IoP) the vision of a Production Control Center is pursued, in which interlinked decision-support applications contribute to increasing decision-making quality and speed. The applications developed focus in particular on use cases near the shop floor with an emphasis on the key topics of production planning and control, production system configuration, and quality control loops.
Within the Predictive Quality application, predictive models are used to derive insights from production data and subsequently improve the process- and product-related quality as well as enable automated Root Cause Analysis. The Parameter Prediction application uses invertible neural networks to predict process parameters that can be used to produce components with desired quality properties. The application Production Scheduling investigates the feasibility of applying reinforcement learning to common scheduling tasks in production and compares the performance of trained reinforcement learning agents to traditional methods. In the two applications Deviation Detection and Process Analyzer, the potentials of process mining in the context of production management are investigated. While the Deviation Detection application is designed to identify and mitigate performance and compliance deviations in production systems, the Process Analyzer concept enables the semi-automated detection of weaknesses in business and production processes utilizing event logs.
With regard to the overall vision of the IoP, the developed applications contribute significantly to the intended interdisciplinary of production and information technology. For example, application-specific digital shadows are drafted based on the ongoing research work, and the applications are prototypically embedded in the IoP.
Long-term production management defines the future production structure and ensures the long-term competitiveness. Companies around the world currently have to deal with the challenge of making decisions in an uncertain and rapidly changing environment. The quality of decision-making suffers from the rapidly changing global market requirements and the uniqueness and infrequency with which decisions are made. Since decisions in long-term production management can rarely be reversed and are associated with high costs, an increase in decision quality is urgently needed. To this end, four different applications are presented in the following, which support the decision process by increasing decision quality and make uncertainty manageable. For each of the applications presented, a separate digital shadow was built with the objective of being able to make better decisions from existing data from production and the environment. In addition, a linking of the applications is being pursued:
The Best Practice Sharing App creates transparency about existing production knowledge through the data-based identification of comparable production processes in the production network and helps to share best practices between sites. With the Supply Chain Cockpit, resilience can be increased through a data-based design of the procurement strategy that enables to manage disruptions. By adapting the procurement strategy for example by choosing suppliers at different locations the impact of disruptions can be reduced. While the Supply Chain Cockpit focuses on the strategy and decisions that affect the external partners (e.g., suppliers), the Data-Driven Site Selection concentrates on determining the sites of the company-internal global production network by creating transparency in the decision process of site selections. Different external data from various sources are analyzed and visualized in an appropriate way to support the decision process. Finally, the issue of sustainability is also crucial for successful long-term production management. Thus, the Sustainable Footprint Design App presents an approach that takes into account key sustainability indicators for network design. [https://link.springer.com/referenceworkentry/10.1007/978-3-030-98062-7_15-1]
Einleitung
(2008)
Als erfolgreiche Strategie deutscher Industrieunternehmen gilt seit vielen Jahren die Konzentration auf Kernkompetenzen. Dadurch ist meist eine Vielzahl von Unternehmen in die Entwicklung und Produktion eingebunden. Das dabei entstehende Kompetenznetzwerk stellt die hohe Qualität der Erzeugnisse sicher. Jedoch mangelt es in Bezug auf Kommunikationsprozesse und -hilfsmittel häufig an den erforderlichen organisatorischen und informationstechnischen Voraussetzungen für einen effizienten Austausch der zentralen Nachrichten zur Bestellabwicklung (z. B. Anfrage, Bestellung, Rechnung).
The complexity and volatility of companies’ environment increase the relevance of disruption preparation. Resilience enables companies to deal with disruptions, reduce their impact and ensure competitiveness. Especially in the context of procurement, disruptions can cause major challenges while resilience contributes to ensuring material availability. Even though past disruptions have posed various challenges and companies have recognized the need to increase resilience, resilience is often not designed systematically. One major challenge is the number of potential measures to increase resilience. The systematic design of resilience thus requires a detailed understanding of domain-specific measures. This also includes an understanding of the contribution of these measures to different resilience components and their interdependencies. This paper proposes a systematic approach for configuring resilience in procurement which enables the evaluation and selection of resilience measures. Based on a resilience framework, a resilience configurator is developed. The basis of the configurator are resilience potentials that have been characterized and clustered. Overarching approaches to design resilience and indicators to evaluate resilience are presented. Moreover, a procedure is proposed to ensure practical applicability. To evaluate the results two case studies are conducted. The results enable companies to systematically design their resilience in procurement.
Gap Analysis for CO2 Accounting Tool by Integrating Enterprise Resource Planning System Information
(2023)
Detailed carbon accounting is the foundation for reducing CO2 emissions in manufacturing companies. However, existing accounting approaches are primarily based on manual data preparation, although manufacturing companies already have a variety of IT systems and resulting data available. The gap analysis carried out based on the GHG Protocol and an reference ERP system shows how much of the required information for CO2 accounting can be integrated from an ERP system. The ERP system can cover 20 % of the required information. The information availability can be increased to 49 % through additionally identified modifications of the ERP system. Integrating the CO2 accounting tool with other systems of the IT landscape, e. g. Energy Information System, enables an additional increase.
Based on the increasingly complex value creation networks, more and more event-based systems are being used for decision support. One example of a category of event-based systems is supply chain event management. The aim is to enable the best possible reaction to critical exceptional events based on event data. The central element is the event, which represents the information basis for mapping and matching the process flows in the event-based systems. However, since the data quality is insufficient in numerous application cases and the identification of incorrect data in supply chain event management is considered in the literature, this paper deals with the theoretical derivation of the necessary data attributes for the identification of incorrect event data. In particular, the types of errors that require complex identification strategies are considered. Accordingly, the relevant existing error types of event data are specified in subtypes in this paper. Subsequently, the necessary information requirements and information available regarding identification are considered using a GAP analysis. Based on this gap, the necessary data attributes can then be derived. Finally, an approach is presented that enables the generation of the complete data set. This serves as a basis for the recognition and filtering out of erroneous events in contrast to standard and exception events.
Companies in the manufacturing sector are confronted with an increasingly dynamic environment. Thus, corporate processes and, consequently, the supporting IT landscape must change. This need is not yet fully met in the development of information systems. While best-of-breed approaches are available, monolithic systems that no longer meet the manufacturing industry's requirements are still prevalent in practical use. A modular structure of IT landscapes could combine the advantages of individual and standard information systems and meet the need for adaptability. At present, however, there is no established standard for the modular design of IT landscapes in the field of manufacturing companies' information systems. This paper presents different ways of the modular design of IT landscapes and information systems and analyzes their objects of modularization. For this purpose, a systematic literature research is carried out in the subject area of software and modularization. Starting from the V-model as a reference model, a framework for different levels of modularization was developed by identifying that most scientific approaches carry out modularization at the data structure-based and source code-based levels. Only a few sources address the consideration of modularization at the level of the software environment-based and software function-based level. In particular, no domain-specific application of these levels of modularization, e.g., for manufacturing, was identified. (Literature base: https://epub.fir.de/frontdoor/index/index/docId/2704)
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.