Refine
Year of publication
Document Type
- Article (5)
- Book (3)
- Part of a Book (14)
- Conference Proceeding (35)
- Contribution to a Periodical (5)
- Internet Paper (3)
- Report (1)
- Working Paper (6)
Is part of the Bibliography
- no (72)
Keywords
- 02 (5)
- 03 (1)
- Aachener PPS-Modell (1)
- Adaptability (1)
- Additive Fertigung (1)
- Adherence To Delivery Dates (1)
- Anlaufmanagement (1)
- Assembly (1)
- Assistance Systems (1)
- Automobilindustrie (1)
Institute
- Produktionsmanagement (72) (remove)
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.
Zusammenfassung und Ausblick
(2012)
Als Beispiel einer globalen Krisensituation zeigt die COVID-19-Pandemie eindrucksvoll die Schwachstellen heutiger Wertschöpfungsnetzwerke. Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke steigt für Unternehmen die Bedeutung einer resilienten Gestaltung derselben. Dabei wird davon ausgegangen, dass ähnliche Krisensituationen in Zukunft häufiger auftreten werden. Ziel dieser Expertise ist es, Unternehmen bei der Identifikation von Potenzialen und Maßnahmen für die resiliente Gestaltung ihrer Wertschöpfungsnetzwerke zu unterstützen.
Viable Production System for adaptable and flexible production planning and control processes
(2009)
High Resolution Supply Chain Management (HRSCM) aims at designing adaptable and flexible production planning and control (PPC) processes according to the needs of the company’s supply chain environment. To reach this goal a model for a Viable Production System (VPS) has been elaborated and is presented in this paper. Based on the Viable System Model (VSM) developed by Stafford Beer current production systems are analyzed in terms of integrity. With the gained knowledge a complete recursive framework of a VPS is developed. The framework allows the design of a decentralized production system that meets all requirements of a dynamic environment. Flexible and adaptable PPC processes can be developed for each identified subsystem of the VPS. Hence, further research focuses on the development of process and control loops in order to assure the application of the framework. Exemplarily the decentralised control loop for inventory management is elaborated in a case study.
Unvorhergesehene Störungen gefährden in vielen Fällen den Kundenliefertermin. Die Produktionssteuerung hat die Aufgabe, effektiv und effizient auf diese kurzfristigen Störungen zu reagieren. Der Entscheidungsprozess beruht jedoch häufig auf einer qualitativen Analyse einer komplexen Situation anhand subjektiver Einschätzungen durch den Produktionsplaner. Zur Verbesserung der Entscheidungsfindung stellt dieser Beitrag eine App vor, die auf Basis von Echtzeitdaten und einer Simulation des Produktionssystems eine quantitative Entscheidungsfindung ermöglicht.
Due to shorter product life cycles and the increasing internationalization of competition, companies are confronted with increasing complexity in supply chain management. Event-based systems are used to reduce this complexity and to support employees' decisions. Such event-based systems include tracking & tracing systems on the one hand and supply chain event management on the other. Tracking & tracing systems only have the functions of monitoring and reporting deviations, whereas supply chain event management systems also function as simulation, control, and measurement. The central element connecting these systems is the event. It forms the information basis for mapping and matching the process sequences in the event-based systems. The events received from the supply chain partner form the basis for all downstream steps and must, therefore, contain the correct data. Since the data quality is insufficient in numerous use cases and incorrect data in supply chain event management is not considered in the literature, this paper deals with the description and typification of incorrect event data. Based on a systematic literature review, typical sources of errors in the acquisition and transmission of event data are discussed. The results are then applied to event data so that a typification of incorrect event types is possible. The results help to significantly improve event-based systems for use in practice by preventing incorrect reactions through the detection of incorrect event data.
Industrial practice shows a strong trend towards digitalization. It is not only economic crises, such as those triggered by Covid-19, that are reinforcing this trend. It is also the entrepreneurial urge to fulfill customer wishes in the best possible way and to adapt to new requirements as quickly as possible. Due to the advancing digitalization, the role of business application systems in manufacturing companies is therefore becoming increasingly important. The data processed in IT-Systems represent a great potential, especially for the evaluation of change requests in production. Through efficient change management, companies can record and process changes quickly. However, the necessary data basis to decide on existing change requests is still hardly used. Existing IT-Systems for change management coordinate the processing of change requests, but do not relate to data of operational application systems such as Enterprise-Resource-Planning. Therefore, a conceptual approach is required for the evaluation of change requests. This approach is based on an objective recording system that enables the transformation from the change description to an evaluation space. The paper presents an approach for the systematic transfer of requirement characteristics into the world of operational IT-Systems.
Towards the Generation of Setup Matrices from Route Sheets and Feedback Data with Data Analytics
(2018)
The function or department of production control in manufacturing companies deals with short-term scheduling of orders and the management of deviations during order execution. Depending on the equipment and characteristics of orders, sequence dependent setup times might occur. In these cases for companies that focus on high utilization of their assets due to long phases of ramp up and high energy costs, it might be optimal to choose sequences with minimal setup time times between orders. Identifying such sequences requires detailed and correct information regarding the specific setup times. With increasing product variety and shorter lot sizes, it becomes more difficult and rather time intense to determine these values manually. One approach is to analyse the relevant features of the orders described in the route sheets or recipes to find similarities in materials and required tools. This paper presents a methodology, which supports setup optimized sequencing for sequence dependent setup times through constructing the setup matrix from such route sheets with the use of data analytics.
Data-driven transparency in end-to-end operations in real-time is seen as a key benefit of the fourth industrial revolution. In the context of a factory, it enables fast and precise diagnoses and corrections of deviations and, thus, contributes to the idea of an agile enterprise. Since a factory is a complex socio-technical system, multiple technical, organizational and cultural capabilities need
to be established and aligned. In recent studies, the underlying broad accessibility of data and corresponding analytics tools are called “data democratization”. In this study, we examine the status quo of the relevant capabilities for data democratization in the manufacturing industry.
(1) and outline the way forward.
(2) The insights are based on 259 studies on the digital maturity of factories from multiple industries and regions of the world using the acatech Industrie 4.0 Maturity Index as a framework. For this work, a subset of the data was selected.
(3) As a result, the examined factories show a lack of capabilities across all dimensions of the framework (IT systems, resources, organizational structure, culture).
(4) Thus, we conclude that the outlined implementation approach needs to comprise the technical backbone for a data pipeline as well as capability building and an organizational transformation.
The Impact Of Manufacturing Execution Systems On The Digital Transformation Of Production Systems
(2021)
With the focus of manufacturing companies on the digital transformation, Manufacturing Execution Systems are market-ready, modular software solutions for manufacturing companies to integrate the value-adding and supporting processes horizontal and vertical in the company. Companies, especially small and mediumsized companies, face high internal and external costs for the implementation of the MES modules. An advantage of MES is the possibility to implement the systems in a continually, module-by-module approach, with the benefit of timely distributed investments. By realizing fast improvements, companies can use the benefits for further module implementations. This paper proposes a maturity model to measure the impact of an MES on the digital transformation of the company’s production systems. The model fulfils two purposes. The first, companies can measure the impact based on the difference between its current maturity index and the potential index of an implemented MES. The second is, the user can identify what impact an MES has in general on the digital transformation since the developed maturity model is derived from an established industry 4.0 maturity model. The development of the maturity model is based on the methodologies of AKKASOGLU and focuses on the further development of an established model. As an outlook, the application of the model will be described briefly. The proposed maturity model can directly be used by practitioners and offers implications for further development of MES functionalities.
Task-Specific Decision Support Systems in Multi-Level Production Systems based on the digital shadow
(2019)
Due to the increasing spread of Information and Communication Technologies (ICT) suitable for shop floors, the production environment can more easily be digitally connected to the various decision making levels of a production system. This connectivity as well as an increasing availability of high-resolution feedback data, can be used for decision support for all levels of the company and supply chain. To enable data driven decision support, different data sources were structured and linked. The data was combined in task-specific digital shadows, selecting clustering and aggregation rules to gain information. Visual interfaces for task-specific decision support systems (DSS) were developed and evaluated positively by domain experts. The complexity of decision making on different levels was successfully reduced as an effect of the processed amounts of data. These interfaces support decision making, but can additionally be improved if DSS are extended with smart agents as proposed in the Internet of Production.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
Ziel des Forschungsvorhabens war die Erhöhung der Effizienz und Effektivität von Suchanfragen in ERP-Systemen. Dabei sollte der Aufwand für den Nutzer reduziert und die Qualität der Ergebnisse verbessert werden. Die Erreichung der Ziele wurde durch die Entwicklung einer selbstlernenden, kontextbasierten Suchmaschine für ERP-Systeme realisiert. Mit der Berücksichtigung des Kontexts einer Suchanfrage, des Benutzerverhaltens und einer Ergebnisbewertung durch den Anwender wurde die Ergebnisqualität von Suchanfragen kontinuierlich gesteigert. Durch die Entwicklung eines Demonstrators wurde der Nutzen des Konzepts nachgewiesen, indem dieser in verschiedenen Szenarien erprobt und anhand einer Wirtschaftlichkeitsbetrachtung bewertet wurde.
Die Globalisierung und der steigende Wettbewerbsdruck erfordern, dass Supply Chains heutzutage komplexe Anforderungen erfüllen. Dabei müssen sie gleichzeitig flexibel genug sein, um an kurzfristige Veränderungen angepasst werden zu können. Ein unternehmensübergreifender Datenaustausch ermöglicht den Akteuren durch schnelle Informationsweitergabe über auftretende Ereignisse entlang der Supply Chain, dynamisch auf aktuelle Gegebenheiten zu reagieren und dadurch hervorgerufene mögliche Schäden zu minimieren. Auch wenn viele Unternehmen mit der Bereitstellung von Daten noch zurückhaltend sind, gehen die Vorteile des Datenaustauschs weit über die Verkürzung der Reaktionszeit hinaus.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.
In recent years, the complexity of the management of supply chains has increased significantly due to the growing individualization of products and dynamics of the market environment. To remain competitive, ensuring efficient and flexible processes and procedures along the entire supply chain are of particular importance for companies. Especially in the inter-company context, decisions must be made as quickly and correctly as possible. To enable good decision-making processes data must be processed and provided in a targeted manner. Currently, however, the necessary transparency is often lacking within the supply chains. In this article, a software-based assistance system for decision support on supply chain level is presented that aims to increase the transparency and efficiency of the decision-making process. A concept for decision support on supply chain level is presented. This paper focuses on the conceptual linkage of relevant decisions and data. Therefore, indicators are identified and linked with the relevant decisions. Moreover, a suitable way of visualizing the identified indicators for each decision in a user-friendly manner is defined. These results are then used to implement the software tool.
Es geht um die Entwicklung eines Software-Tools zur Unterstützung bei der Auswahl von geeigneten 3D-Druckdienstleistern im Kontext der additiven Ersatzteillogistik. Im Fokus steht der Logistikdienstleister als potentieller Nutzer des Softwaretools. Das Softwaretool erfüllt zwei zentrale Funktionen: Überprüfung ob ein Ersatzteil additiv gefertigt werden soll und Auswahl eines konkreten Produzenten durch Matchingalgorithmus.
Ziel des Forschungsbereichs "Selbstoptimierende Produktionssysteme" ist es, sowohl technische als auch soziotechnische Produktionssysteme zu entwickeln, die durch Selbstoptimierung eine bessere Performance erreichen, als bei der Auslegung geplant und erwartet werden kann. Im Fokus steht die Steigerung der Produktivität in der Produktion direkt vor Ort. Bedeutend ist die dezentrale Entscheidungsfähigkeit der Mitarbeiter auf dem Shopfloor und in unterstützenden Bereichen, sowie der kognitiven und adaptiven Systeme und Netzwerke in der Produktion.
The industrial food production is currently caught between the increas-ing demands of numerous stakeholders, economic profitability and the challenges of digitization. A solution to face these various challenges can be seen in the aggregation of data into higher-value, independent data products that can be of-fered and sold on a buyer's market. Large amounts of heterogeneous data are already available in the value chain of the industrial food production, e.g. throughout the data-driven harvesting of primary products, further processing by interconnected production facilities and the information-intensive product distri-bution to end consumers. However, the data is usually only evaluated and used locally for the optimization of internal processes or, at the most, within compre-hensive partnerships. The purpose of this paper is to identify new revenue oppor-tunities for current and future players in the industrial food production by using data as an independent economic good (data products). For this purpose, scenar-ios for the development and use of data products via Industrial Internet of Things platforms are developed for a food technical reference process, the industrial chocolate production and its value chain. On this basis, examples for different types of data products and their value propositions are derived. The results can not only serve food producers and relevant stakeholders but all industrial produc-ers as an input for the future, yield-increasing orientation of their business models.
Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke und in Zeiten sich ständig verändernder Rahmenbedingungen steigt für Unternehmen die Bedeutung einer resilienten Gestaltung ihrer Wertschöpfungsnetzwerke. Durch die hohe Vernetzung in einem Wertschöpfungsnetzwerk entsteht eine starke Abhängigkeit zwischen den einzelnen Akteuren. Störungen haben somit häufig nicht nur Auswirkungen auf einzelne Unternehmen, sondern betreffen verschiedene Akteure der Wertschöpfungsnetzwerke. Tritt nun eine Störung auf, kann sich diese im gesamten Netzwerk ausbreiten. Erst der konkrete Eintritt solcher Störungen im großen Umfang – wie zuletzt im Zuge der Corona-Pandemie oder der Blockierung des Suez-Kanals – führt Unternehmen regelmäßig dazu, sich mit ihren Wertschöpfungsnetzwerken auseinander zu setzen. Eine Möglichkeit zur Sicherung der Leistungsfähigkeit in einem volatilen Umfeld stellt der Aufbau von Resilienz dar. Insgesamt ist es hierbei das Ziel, Wertschöpfungsnetzwerke so zu gestalten, dass sie im Falle einer Störung möglichst wenig beeinträchtigt sind und schnell in den ursprünglichen oder einen besseren Zustand zurückkehren können.