62 Ingenieurwissenschaften
Refine
Year of publication
Document Type
- Article (31)
- Bachelor Thesis (167)
- Book (51)
- Part of a Book (147)
- Conference Proceeding (230)
- Contribution to a Periodical (557)
- doctorallecture (201)
- Doctoral Thesis (367)
- Lecture (107)
- Master's Thesis (279)
Language
- German (1815)
- English (384)
- Multiple languages (111)
- Spanish (2)
Is part of the Bibliography
- no (2312)
Keywords
- 01 (64)
- 02 (68)
- 03 (13)
- 04 (7)
- 3-Phasen-Konzept (2)
- 3D-Druck (5)
- 3GPP (1)
- 3PhasenKonzept (7)
- 5G (23)
- 5G mobile communication (2)
Institute
- Business Transformation (180)
- Dienstleistungsmanagement (493)
- FIR e. V. an der RWTH Aachen (2310)
- Informationsmanagement (347)
- Produktionsmanagement (524)
Smart Building
(2017)
Wenige Entwicklungen wurden bisher in der TGA so häufig und kontrovers diskutiert, wie das Themenfeld Smart Building. Dieser Umstand ist nicht zuletzt dem Sachverhalt geschuldet, dass der Begriff zwar vielfach definiert, sich bisher jedoch kein allgemeingültiges und anerkanntes Begriffsverständnis durchgesetzt hat. Zudem sind die Anwendungsszenarien zahlreich und die beteiligten Branchenakteure stark heterogen. Nicht zuletzt durch eine steigende Anzahl oftmals technologieorientierter Start-ups wird dieser Umstand noch verschärft. In diesem Spannungsfeld besteht die Frage, welche Rolle TGA-Fachplaner zukünftig spielen und wie sie sich optimal im Bereich Smart Building positionieren können.
Als Reaktion auf den Wandel richten produzierende Unternehmen ihr Augenmerk nun verstärkt auf die Bereitstellung von Dienstleistungen und hybride Lösungen aus physischem Produkt, traditioneller und digitaler Dienstleistung. Sie ermöglichen es, sich von Mitbewerbern abzuheben und gleichzeitig die eigenen Margen zu erhöhen. Das Angebot und den Verkauf solcher Produkt-Dienstleistungs-Kombinationen bezeichnet man als Lösungsverkauf oder Solution-Selling. Am Beispiel der Automobilindustrie wird deutlich, wie vielfältig Lösungsangebote sein können, die über das traditionelle Produktgeschäft hinausgehen.
Das Forschungsprojekt ‚DiCES‘ bringt verschiedene Industriepartner zusammen, um gemeinsam ein datenbasiertes, integriertes Wertschöpfungssystem für eine nachhaltige, multidimensionale Kreislaufwirtschaft zu entwickeln. Zur Sicherstellung der Praxisnähe des Projekts fanden Workshops mit Industriepartnern aus unterschiedlichen Industriezweigen statt. Dabei wurden Anforderungen an IT-Systeme, Produktkonfigurationen, Geschäftsmodelle und Produktionskonzept behandelt. Alle erhobenen Anforderungen wurden anschließend für die Kategorisierung aufbereitet.
Der Digitale Produktpass (DPP) ist ein Konzept zur Erfassung und Bereitstellung produktbezogener Informationen während des gesamten Produktlebenszyklus, um Transparenz bezüglich Herkunft, Zusammensetzung und End-of-Life-Behandlungsoptionen zu schaffen. Somit bildet er eine wesentliche Grundlage für die Kreislaufwirtschaft. Es existieren bereits Ansätze für die inhaltliche Konzeption eines DPP für verschiedene Branchen, Datenstandards zur Erfassung von Produktinformationen und mehrere Marktlösungen zur praktischen Umsetzung. Allerdings sind Unternehmen nicht ausreichend auf die Umsetzung von DPP vorbereitet. Eine Herausforderung besteht darin, die relevanten Daten zur Deckung des Informationsbedarfs im Kontext der Kreislaufwirtschaft zu identifizieren und diese Daten mithilfe der bereits vorhandenen IT-Systemlandschaft zu konsolidieren. Die Analyse eines MES liegt hierbei im Fokus, da neben Bauteildaten auch die in der Produktion anfallenden Prozessdaten von Bedeutung sind.
Das Forschungsziel ist demnach die Überführung der im MES anfallenden Daten zu Informationen, die für einen auf die Ermöglichung von Remanufacturing ausgerichteten DPP relevant sind. Dazu wird zunächst eine Literaturrecherche zur Identifizierung potenziell relevanter Prozessdaten in MES sowie in einem DPP für das Remanufacturing erforderlichen Informationen durchgeführt. Um den aktuellen Stand der Technik zu berücksichtigen und konkrete Datenbedarfe für das Remanufacturing zu erfassen, werden diese Grundlagen mit Experteninterviews im produzierenden Sektor angereichert. Die Gegenüberstellung des Informationsbedarfs eines DPP und Datenangebots eines MES erlaubt die Ableitung einer Methodik zur Überführung relevanter Daten in einen DPP. Diese Methodik wird anschließend in der DFA Demonstrationsfabrik Aachen GmbH prototypisch validiert. Die Ergebnisse sollen produzierende Unternehmen unterstützen, mit ihrer bestehenden IT-Systemlandschaft DPP im Kontext des Remanufacturing umzusetzen.
Business ecosystem analysis of companies undergoing digital transformation - A case study analysis
(2021)
Entwicklung eines Beschreibungsmodells für die Standardisierung industrieller Dienstleistungen
(2016)
In dieser Arbeit wird die Zielsetzung verfolgt, ein Beschreibungsmodell für die Standardisierung industrieller Dienstleistungen zu entwickeln. Das Beschreibungsmodell wird in Form einer Morphologie angelegt und neben der Standardisierung primär die Prozesse der industriellen Diensleistungserstellung fokussieren. Es werden prägende Merkmale von Standardisierungen und Prozessen herausgearbeitet und geeignete Merkmalesausprägungen hergeleitet. Einerseits soll die Morphologie ermöglichen, konkrete Standardisierungsmaßnahmen zu beschreiben und anhand der Merkmalsausprägungen Rückschlüsse auf die Ausrichtung und Wirkweise der Standardisierung zu ziehen zu können. Auf der anderen Seite sollen Prozesse derart beschrieben werden, dass Standardisierungspotenziale erkennbar und die Auswirkungen von Standardisierungsmaßnahmen über veränderte Merkmalsausprägungen der Prozessbeschreibung feststellbar werden.
Entwicklung eines Evaluationswerkzeugs zur Bestimmung des Fits von Anwendungsideen für GAIA-X
(2023)
Die Zielsetzung der vorliegenden Bachelorarbeit ist es, einen Ansatz zur Systematisierung von Reaktionsstrategien für Abweichungssituationen in der Fertigungssteuerung zu entwickeln. Der entwickelte Ansatz soll es ermöglichen, den Reaktionsaufwand für Abweichungssituationen zu reduzieren und somit eine schnellere Reaktion auf Abweichungen in der Fertigungssteuerung zu ermöglichen.
MES-Vertrieb im Anlagenbau
(2018)
Machine Learning methods have shown great potential in production during recent years and have subsequently played a significant role in driving the Industry 4.0 revolution. However, there is still a lack of systematic guidelines for identifying and implementing viable ML use cases in the manufacturing industry . The aim of this work therefore, is to identify whether machine learning classifiers can be used in addition to a traditional process monitoring method (tolerance window) in order to improve quality control of staking processes on an assembly line.
Applied methods:
Extensive literature research will be initially conducted in order to understand ongoing research in this field and to clearly define the research gap. For a scientific and structured execution, CRoss Industry Standard Process for Data Mining (CRISP-DM) method will be used as the backbone of the thesis. The first step of Business Process Understanding would include learning about the staking and quality testing processes. This will be followed by data extraction and Exploratory Data Analysis (EDA) as part of Data Understanding. The Data Preparation step would include cleaning, filtering, feature engineering and scaling in order to use as input for the model.
Preparing the Machine Learning model will include selecting, modeling, training and testing the appropriate classification algorithms e.g. Näive Bayes, XGBoost, Feed Forward Neural Network and Random Forest. Depending on a pre-defined success criteria such as Accuracy, Precision etc. the training and test results will be evaluated and the best performing model will be selected. Further, subject to the model performance and business requirments , possible methods for deployment of the classifier in real time production will be discussed.
Expected results:
This work will help to identify if process curve data from staking processes can be used to train machine learning models and improve quality monitoring on an assembly line. Good model performance will indicate potential to reduce waste and decrease unnecessary processing time at the testing station. Additionally, it will also assist the process experts understand unknown influences on the product quality. A systematic approach to implement machine learning for similar use cases involving curve data of staking processes and will be developed.
Reifegradmodell zur Bestimmung der Auswirkungen von Industrie 4.0 auf den industriellen Service
(2019)
Kürzere Produktlebens- und Innovationszyklen sowie eine zunehmende Kreislaufwirtschaft stellen
Unternehmen vor die Herausforderung, ihre Produktionsprozesse schnell an die sich wandelnden
Anforderungen anzupassen. Entscheidend für die Umsetzung einer anpassungsfähigen Produktion ist
eine flexible Intralogistik. Dabei setzen Unternehmen zunehmend auf autonome mobile Roboter (AMR).
AMR navigieren selbstständig und können ihre Route an die Umgebungssituation anpassen, ohne einen
Fahrer zu benötigen. In der Praxis werden diese Vorteile jedoch selten genutzt, da AMR nicht hinreichend
in das Produktionssystem eingebunden sind. Die Schwierigkeit dabei liegt in der Generierung von
Transportaufträgen, die auf die Echtzeit-Lage im Produktionssystem angepasst sind und alle relevanten
Daten auf dem Shopfloor berücksichtigen, um so auf unvorhergesehene Veränderungen flexibel und
effizient zu reagieren.
Das Ziel dieser Arbeit ist die Entwicklung eines Datenmodells, welches die Einflüsse auf den Einsatz von
AMR in der Produktion umfasst und die Erstellung von echtzeitfähigen Transportaufträgen ermöglicht.
Dazu wird zunächst eine Literaturrecherche durchgeführt, um relevante Aspekte wie Datenquellen,
-senken, und -flüsse zu identifizieren. Anschließend werden deren Einflüsse auf echtzeitfähige
Transportaufträge mittels der Betrachtung generischer Use-Cases ermittelt und in einem Datenmodell
erfasst. Das entwickelte Modell soll in der DFA Demonstrationsfabrik Aachen Gmbhl validiert werden.
Die Ergebnisse dieser Arbeit sollen Unternehmen bei der effektiven Implementierung von AMR
unterstützen und als Mittel zur Erhöhung der Reaktionsfähigkeit moderner Produktionssysteme dienen
Industry 4.0 and smart factories have brought significant advancements in manufacturing processes, particularly in intralogistics. A key factor which forms the basis for creating smart intralogistics systems is data. However, there exist several data-related issues that hamper the efficiency of the intralogistics process such as data unavailability, poor data quality, inconsistent data, or underutilization of available data. The challenge is to identify, categorize, evaluate, and solve these issues. Overcoming this will help organizations understand the most impactful challenges.
By analysing real-world scenarios and interviewing industry experts, the problems present within the intralogistics process that are caused by the previously mentioned data-related factors are identified. The identified issues are clustered, and the clusters are characterized. A literature review explores the existing solutions or approaches to overcome these limitations. Subsequently finding out if the identified problems can be solved with current technologies and approaches or further research and development is needed. Next, a framework is developed which will act as a guide on the classification, evaluation and prioritization of the identified challenges. In the final part, the framework is validated on an industry specific use case and its limitations and future scope are discussed.
This master thesis emphasizes the significance of data in intralogistics processes by identifying and addressing data-related issues. The outcome on one hand is state-of-the-art solutions for the identified problems and on the other hand is a framework which will support businesses in determining how to tackle data-related issues to gain most benefit with respect to efficiency, productivity, flexibility and quality.
The advancements in Industry 4.0 technologies have provided unprecedented opportunities for optimizing material transportation through various use cases that are possible through rapid technological advance. An important driver for the use cases is data. However, the lack of understanding, which
specific data, from which sources and in what frequency, slows down the implementation of use cases or even reduces their potential benefits. Companies lack the ability to prepare themselves correctly for a use case integration, especially from the data perspective (e.g. data availability, quality, integration).
Therefore, the goal of this thesis is to create a framework for evaluation of Industry 4.0 use cases in the materials' transportation with regard to needed data. The scientific approach employed in this research involves research and analysis of existing frameworks for description or assessment of use cases in different fields and industries. Following, specific use cases related to material transportation in the context of Industry 4.0 will be identified in order to find similarities in the structure and requirements
regarding needed data, and thus identifying common characteristics and key parameters. These parameters will then serve as the foundation for developing a framework that enables companies to systematically analyse and assess potential use cases for material transportation, considering the data requirements and its integration challenges.
The expected result of this thesis is the development of a practical framework that empowers organizations to evaluate and implement Industry 4.0 use cases for material transportation effectively. By providing a structured methodology, this framework will facilitate decision-making processes and support companies in identifying the most suitable use cases based on their specific requirements and
data availability.
The goal of this thesis is to provide startups with a minimal framework for process management that allows them to take the first steps towards Quality Management. Based on existing approaches and methods - with focus on Lean Thinking and Quality Management - the framework should provide a practical guideline to standardize and optimize processes within startups, considering their limited resources and the uncertainty of the environment they operate in.
Different levels of standardization provide an optimal tradeoff between standardization effort and process improvement, while an iterative evaluation process helps to deal with rising numbers and complexity of tasks while maintaining a low overhead. As a result, startups will be able to quickly evaluate if, how and to what degree a process needs standardization, based on available knowledge about the process.