Refine
Year of publication
Document Type
- Article (10)
- Book (3)
- Part of a Book (32)
- Conference Proceeding (41)
- Contribution to a Periodical (18)
- Lecture (5)
- Internet Paper (1)
- Report (2)
- Working Paper (3)
Is part of the Bibliography
- no (115)
Keywords
- 02 (4)
- 03 (3)
- 7. EU-Forschungsrahmenprogramm (1)
- APMS (1)
- APS (1)
- Aachener PPS-Modell (1)
- Adaptability (1)
- Additive Fertigung (1)
- Advanced Planning System (1)
- Anlagenbau (1)
Institute
- Produktionsmanagement (115) (remove)
Aktuell ist noch nicht geklärt, wie sich das Zusammenwirken von Menschen und betrieblichen Anwendungssystemen bei der Bearbeitung der Aufgaben der PPS nach der Umsetzung von Industrie 4.0 entwickelt. Zur Systematisierung der Auswirkungen von Industrie 4.0 auf die PPS werden in diesem Beitrag die sechs Reifegradstufen des acatech Industrie-4.0-Maturity-Index mit der Aufgabensicht des Aachener PPS-Modells kombiniert und die Reifegradstufen für ausgewählte Unteraufgaben der PPS spezifiziert.
Auf Basis einer systematischen Literaturanalyse wurden insgesamt 11 Kennzahlen identifiziert, welche die Grundlage zur Beschreibung der operativen Leistungsfähigkeit von Unternehmen bilden. Die Kennzahlen wurden in die vier Leistungsdimensionen Effizienz, Qualität, Zeit und Flexibilität eingeteilt.
Due to shorter product life cycles and the increasing internationalization of competition, companies are confronted with increasing complexity in supply chain management. Event-based systems are used to reduce this complexity and to support employees' decisions. Such event-based systems include tracking & tracing systems on the one hand and supply chain event management on the other. Tracking & tracing systems only have the functions of monitoring and reporting deviations, whereas supply chain event management systems also function as simulation, control, and measurement. The central element connecting these systems is the event. It forms the information basis for mapping and matching the process sequences in the event-based systems. The events received from the supply chain partner form the basis for all downstream steps and must, therefore, contain the correct data. Since the data quality is insufficient in numerous use cases and incorrect data in supply chain event management is not considered in the literature, this paper deals with the description and typification of incorrect event data. Based on a systematic literature review, typical sources of errors in the acquisition and transmission of event data are discussed. The results are then applied to event data so that a typification of incorrect event types is possible. The results help to significantly improve event-based systems for use in practice by preventing incorrect reactions through the detection of incorrect event data.
Companies operate in an increasingly volatile environment where different developments like shorter product lifecycles, the demand for customized products and globalization increase the complexity and interconnectivity in supply chains. Current events like Brexit, the COVID-19 pandemic or the blockade of the Suez canal have caused major disruptions in supply chains. This demonstrates that many companies are insufficiently prepared for disruptions. As disruptions in supply chains are expected to occur even more frequently in the future, the need for sufficient preparation increases. Increasing resilience provides one way of dealing with disruptions. Resilience can be understood as the ability of a system to cope with disruptions and to ensure the competitiveness of a company. In particular, it enables the preparation for unexpected disruptions. The level of resilience is thereby significantly influenced by actions initiated prior to a disruption. Although companies recognize the need to increase their resilience, it is not systematically implemented. One major challenge is the multidimensionality and complexity of the resilience construct. To systematically design resilience an understanding of the components of resilience is required. However, a common understanding of constituent parts of resilience is currently lacking. This paper, therefore, proposes a general framework for structuring resilience by decomposing the multidimensional concept into its individual components. The framework contributes to an understanding of the interrelationships between the individual components and identifies resilience principles as target directions for the design of resilience. It thus sets the basis for a qualitative assessment of resilience and enables the analysis of resilience-building measures in terms of their impact on resilience. Moreover, an approach for applying the framework to different contexts is presented and then used to detail the framework for the context of procurement.
Task-Specific Decision Support Systems in Multi-Level Production Systems based on the digital shadow
(2019)
Due to the increasing spread of Information and Communication Technologies (ICT) suitable for shop floors, the production environment can more easily be digitally connected to the various decision making levels of a production system. This connectivity as well as an increasing availability of high-resolution feedback data, can be used for decision support for all levels of the company and supply chain. To enable data driven decision support, different data sources were structured and linked. The data was combined in task-specific digital shadows, selecting clustering and aggregation rules to gain information. Visual interfaces for task-specific decision support systems (DSS) were developed and evaluated positively by domain experts. The complexity of decision making on different levels was successfully reduced as an effect of the processed amounts of data. These interfaces support decision making, but can additionally be improved if DSS are extended with smart agents as proposed in the Internet of Production.
Eine wesentliche Bedingung zur Optimierung der Wertschöpfungsprozesse ist die Transparenz über die leistungsbestimmenden Faktoren eines Unternehmens. Die Ermittlung dieser Faktoren stellt für viele Industriebetriebe eine Herausforderung dar. Im Rahmen der Veröffentlichung wird daher eine Vorgehensweise zur systematischen Identifikation von Einflussfaktoren der Unternehmenskennzahlen vorgestellt, welche die Grundlage zur Ableitung von individuellen Stellhebeln zur Steigerung der Unternehmensleistungsfähigkeit darstellt.
Prinzipien zur erfolgreichen Umsetzung von KI-Geschäftsmodellinnovationen
In Zeiten des zunehmenden globalen Wettbewerbs und hoch vernetzter Wertschöpfungsketten entwickelt sich Künstliche Intelligenz zu einem immer wichtiger werdenden Wettbewerbsfaktor für Unternehmen am Wirtschaftsstandort Deutschland. Durch den Einsatz von KI-Verfahren können nicht nur interne Geschäftsprozesse kostensenkend optimiert, sondern auch neue, digitale Geschäftsfelder und -modelle erschlossen werden. Es lassen sich zum einen Trends identifizieren, denen der Einsatz von KI in deutschen Unternehmen folgt. Zum anderen zeigt sich, dass sich KI unterschiedlich stark auf verschiedene Dimensionen innovativer Geschäftsmodelle auswirkt. Insgesamt lassen sich so Prinzipien ableiten, die die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen beschreiben.
Neue Technologie- und Anwendungstrends kennzeichnen KI-Nutzung
Die tatsächliche KI-Landschaft in den Wertschöpfungsketten von KI-nutzenden Unternehmen ist durch Trends gekennzeichnet. Diese lassen sich in Technologie- und Anwendungstrends unterteilen. Experteninterviews zeigen beispielsweise, dass KI-Anwendungen bevorzugt auf Cloud-Infrastrukturen entwickelt und bereitgestellt werden. Das wiederum rückt die Frage nach der Wahrung der Datensouveränität in den Vordergrund. Anwendung findet KI tendenziell zur Prognose und Überwachung.
Sechs Prinzipien beeinflussen die erfolgreiche Umsetzung von KI-Geschäftsmodellinnovationen
Fallstudien über ein breites Spektrum der deutschen Wirtschaft beleuchten, welche Aspekte eines KI-basierten Geschäftsmodells den größten Effekt auf das Unternehmen haben. Hier lässt sich ein besonders hoher Einfluss von KI auf das Nutzenversprechen neuartiger, digitaler Leistungen der Unternehmen an die Kundinnen und Kunden feststellen. So lassen sich sechs Erfolgsprinzipien zur erfolgreichen Implementierung von KI-Technologien identifizieren, um die wirtschaftliche Nutzung von KI für Unternehmen in Deutschland im globalen Wettbewerb weiter zu steigern. So empfiehlt es sich zum Beispiel – neben der Auswahl des richtigen KI-Anwendungsfalles – ebenfalls darauf zu achten, dass die KI-Anwendung sowohl den Anbietenden wie auch den Anwendenden nützt. Diese und weitere Erfolgsprinzipien werden detailliert in der Studie Künstliche Intelligenz – Geschäftsmodellinnovationen und Entwicklungstrends beschrieben.
Discrete Event Simulation (DES) is a well-known approach to simulate production environments. However it was rarely used for operative planning processes and to our knowledge never in terms of multiple disposition levels.In this paper we develop the necessary adjustments to use DES for this purpose and show some theoretical advantages.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
Künstliche Intelligenz (KI) hat sich über die letzten Jahre stetig zu einem Thema mit strategischer Priorität für Unternehmen entwickelt. Das zeigt sich nicht zuletzt in der gesteigerten Investitionsbereitschaft deutscher Unternehmen in KI-Projekte. Wirtschaftliche Akteure haben erkannt, dass durch eine sinnvolle Nutzung von KI-Technologien Wettbewerbsvorteile erzielt werden können. Die vorliegende Studie legt das Augenmerk auf den industriellen Einsatz einer KI-Technologie, die bereits heute von vielen Unternehmen erfolgreich genutzt wird: Die natürliche Sprachverarbeitung (engl. Natural Language Processing, kurz NLP). Die wirtschaftlichen Potenziale der Technologie liegen dabei in ihrer Fähigkeit, betriebliche Abläufe zu automatisieren und die Schnittstelle zwischen Mensch und Maschine zu verbessern und zu vereinfachen. Ziel der Studie ist es, die Potenziale der NLP-Technologie für Unternehmen nutzbar zu machen, indem konkrete Anwendungsfälle und allgemeine Handlungsempfehlungen sowie Nutzen und Risiken aufgezeigt werden.
Klar Schiff
(2009)
Im Rahmen dieser Studie untersuchten das Forschungsinstitut für Rationalisierung e. V. an der RWTH Aachen und die Universität St. Gallen
(Lehrstuhl Produktionsmanagement) 24 Veröffentlichungen von 11 Beratungsunternehmen. Dabei wurden über 200 Aussagen zur Bewältigung der Krise bewertungsneutral identifiziert und analysiert.
Zur Planung und Steuerung setzen Unternehmen der produzierenden Industrie heute auf umfassenden Softwareeinsatz. Deshalb begründen sie eine geringe logistische Zielerfüllung bezüglich Lieferfähigkeit und Liefertreue häufig mit Defiziten der Software. Doch Praxiserfahrungen zeigen, dass die Industrieanwender die Bedeutung organisatorischer Defizite in der innerund" überbetrieblichen Auftragsabwicklung deutlich unterschätzen.
Deshalb untersuchten die drei Institute
• Fraunhofer Institut für Produktionstechnik und Automatisierung IPA, Stuttgart;
• Forschungsinstitut für Rationalisierung FIR, Aachen sowie
• Laboratorium für Werkzeugmaschinen und Betriebslehre WZL der RWTH
Aachen
den Einfluss dieser Defizite auf die Lieferterminermittlung und -erfüllung. Ausgangspunkt der Studie waren Thesen, die eine qualitative Befragung der Produktions- und Logistikverantwortlichen verifizieren sollte.
Blockchain as Middleware+
(2019)
In supporting decision making of manufacturing companies, the added value of cross-domain data exchange for aggregating information is well established in enterprise organization research and is represented, for example, in the reference model “Internet of Production” (IoP). Currently, there is little research regarding the role of Blockchain technology in such a reference model and how specifically the IoP needs to be expanded to address cross-company data exchange. This paper presents a proposal for such an extension to outline the use of Blockchain technology and to elaborate the open research demands for implementation. In particular, desk research and the development of concrete use cases for cross-company data exchange between business application systems were carried out. The results are, on the one hand, extending the IoP by a third dimension, which corresponds to the supply chain, and, on the other hand clarification of the role Blockchain technology can take in this context.
This paper won the John Burbidge Best Paper Award (see Attachment 2).
Industrie 4.0 bringt enorme Veränderungen und bietet große Verbesserungspotenziale für die Produktionsplanung und -steuerung. Aufbauend auf dem Aachener PPS-Modell wird in diesem Beitrag in Anlehnung an den Industrie-4.0-Maturity-Index der acatech eine reifegradbasierte Untersuchung der Entwicklung der Produktionsplanung und -steuerung im Kontext von Industrie 4.0 präsentiert.
Supply Chain Management liefert eine Fülle von Ideen und Methoden zur Gestaltung der Lieferkette. Dabei kann jedes Konzept zu erheblichen Kosteneinsparungen und verbessertem Lieferservice führen. Allerdings ist das einzelne Konzept nicht für unterschiedliche Kunden und deren diversifizierte Anforderungen praktikabel. Daher kann eine einheitliche "one size fits all"-Supply Chain nicht zum Erfolg führen. Der Schlüssel liegt in der Segmentierung der Supply Chain.
Generation of a Data Model For Quotation Costing Of Make To Order Manufacturers From Case Studies
(2022)
For contract or make to order manufacturers, quotation costing is a complex process that is mainly performed based on experience. Due to the high diversity of the product range of these mostly small or medium-sized companies (SMEs) and the poor data situation at the time of quotation preparation, the quality of the calculation is subject to strong variations and uncertainties. The gap between the initial quotation costing and the actual costs to be spent (pre- and post-calculation) is crucial to the existence of SMEs. Digitalization in general can help companies to get a better understanding of processes and to generate data. For improving these processes, an understanding of the important data for that specific process is crucial. Accurate quotation costing for customized products is time-consuming and resource-intensive, as there is a lack of an overview of data to be used within the process. This paper therefore derives a data model for supporting quotation costing in the company, based on literature-based costing procedures and recorded case studies for quotation and calculation. Based on the results, SMEs will have a first overview of the needed data for quotation costing to optimize their calculation process.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.
Das Produktionsmanagement beinhaltet sämtliche Aufgaben zur Gestaltung, Planung, Überwachung und Steuerung eines Produktionssystems und der betrieblichen Ressourcen Mensch, Maschine, Material und Information. Die strategische Perspektive des Produktionsmanagements antizipiert relevante Veränderungstreiber, stößt die Anpassung der Organisation an veränderte (Umwelt-)Bedingungen an und gestaltet somit die strategische Ausrichtung des Unternehmens auf Basis der auf der normativen Ebene definierten Ziele, Prinzipien und Normen.
Damit spannt das strategische Produktionsmanagement gleichzeitig den Gestaltungsrahmen für die operative Ebene auf. Das operative Produktionsmanagement verfolgt das Ziel, die Produkte und (Dienst-)Leistungen eines Unternehmens in der erforderlichen Menge und Qualität zu einem festgelegten Termin und unter Einsatz des geringstmöglichen Kostenaufwands zu erstellen. Kernaufgaben des operativen Produktionsmanagements sind die Produktionsprogrammplanung, das Auftragsmanagement, die Produktionsbedarfsplanung, die Eigenfertigungs- sowie die Fremdbezugsplanung und -steuerung.
In diesem Beitrag werden zunächst die zentralen Begriffe definiert und der diesem Band zugrundeliegende Ordnungsrahmen des Produktionsmanagements aufgespannt. Danach werden die Aufgaben und Prinzipien des strategischen sowie die wesentlichen Ziele des operativen Produktionsmanagements vorgestellt. Die Kernprozesse des Produktionsmanagements unterscheiden sich in ihrer konkreten Ausprägung in Abhängigkeit vom unternehmensspezifisch vorliegenden Fertigungstyp. Daher werden im Anschluss die vier grundsätzlichen Fertigungstypen der Auftrags-, Rahmenauftrags-, Varianten- und Lagerfertigung definiert und gegeneinander abgegrenzt. Abschließend werden die wesentlichen Daten, Datenarten und -strukturen erläutert, die zusammen mit den aus ihnen abgeleiteten Informationen die Basis für jegliche Aktivität im Rahmen des Produktionsmanagements bilden.
Produktionsprogrammplanung
(2014)
Ziel der Produktionsprogrammplanung ist es, einen hinsichtlich Absetzbarkeit und Realisierbarkeit abgestimmten Produktionsplan über einen langfristigen Planungszeitraum zu erstellen. Dieser Produktionsplan legt verbindlich fest, welche Erzeugnisse durch das Unternehmen in welchen Stückzahlen zu welchen Zeitpunkten bzw. in welchen Perioden produziert werden sollen. Teilaufgaben der Produktionsprogrammplanung sind die Absatzplanung, die Primärbedarfsplanung und die Ressourcengrobplanung. In diesem Kapitel werden zunächst die Kernaufgaben der Produktionsprogrammplanung definiert und anschließend die wesentlichen Methoden und Verfahren zur Bearbeitung der verschiedenen Teilaufgaben innerhalb der Produktionsprogrammplanung zusammengestellt. Abschließend werden die Aufgaben der Produktionsprogrammplanung in ihrer zeitlogischen Abfolge in Form eines Referenzprozessmodells modelliert und dabei fertigungstypspezifisch detailliert.
Auftragsmanagement
(2014)
Ausgelöst durch einen konkreten Kundenauftrag, plant, steuert und überwacht das Auftragsmanagement sämtliche Aktivitäten der Auftragsabwicklung von der Anfragenbearbeitung über die Konstruktion, den Einkauf, die Fertigung und Montage bis hin zum Versand des fertigen Produkts. Dabei wird im Auftragsmanagement das Ziel verfolgt, die Transparenz der Auftragsabwicklung zu erhöhen und damit die Reaktionsfähigkeit im Hinblick auf unternehmensinterne und -externe Störungen deutlich zu verbessern. Gleichzeitig unterstützt das Auftragsmanagement die Lösung von Interessenskonflikten zwischen verschiedenen Fachbereichen sowie die Ausregelung von Zielkonflikten im Sinne einer effizienten Erfüllung des Kundenauftrags.
Teilaufgaben des Auftragsmanagements sind die Angebotsbearbeitung, die Auftragsbearbeitung sowie die Auftragskoordination und das Auftragscontrolling. In diesem Kapitel werden zunächst die Kernaufgaben des Auftragsmanagements definiert und anschließend die wesentlichen Methoden und Verfahren zur Bearbeitung der verschiedenen Teilaufgaben innerhalb des Auftragsmanagements zusammengestellt. Abschließend werden die Aufgaben des Auftragsmanagements in ihrer zeitlogischen Abfolge in Form eines Referenzprozessmodells modelliert und dabei fertigungstypspezifisch detailliert.