Refine
Year of publication
Document Type
- Contribution to a Periodical (536)
- Doctoral Thesis (370)
- Master's Thesis (288)
- Conference Proceeding (232)
- doctorallecture (209)
- Bachelor Thesis (170)
- Part of a Book (150)
- Lecture (94)
- Report (66)
- Working Paper (63)
Language
- German (1796)
- English (395)
- Multiple languages (115)
- Spanish (2)
Is part of the Bibliography
- no (2308)
Keywords
- 1 (3)
- 2 (1)
- 3 (2)
- 3 PhasenKonzept (1)
- 3-Phasen-Konzept (2)
- 3D Druck (1)
- 3D-Druck (5)
- 3GPP (1)
- 3PhasenKonzept (7)
- 5G (23)
Institute
- FIR e. V. an der RWTH Aachen (2307)
- Produktionsmanagement (523)
- Dienstleistungsmanagement (479)
- Informationsmanagement (335)
- Business Transformation (146)
- Smart Mobility (41)
Der Digitale Produktpass (DPP) ist ein Konzept zur Erfassung und Bereitstellung produktbezogener Informationen während des gesamten Produktlebenszyklus, um Transparenz bezüglich Herkunft, Zusammensetzung und End-of-Life-Behandlungsoptionen zu schaffen. Somit bildet er eine wesentliche Grundlage für die Kreislaufwirtschaft. Es existieren bereits Ansätze für die inhaltliche Konzeption eines DPP für verschiedene Branchen, Datenstandards zur Erfassung von Produktinformationen und mehrere Marktlösungen zur praktischen Umsetzung. Allerdings sind Unternehmen nicht ausreichend auf die Umsetzung von DPP vorbereitet. Eine Herausforderung besteht darin, die relevanten Daten zur Deckung des Informationsbedarfs im Kontext der Kreislaufwirtschaft zu identifizieren und diese Daten mithilfe der bereits vorhandenen IT-Systemlandschaft zu konsolidieren. Die Analyse eines MES liegt hierbei im Fokus, da neben Bauteildaten auch die in der Produktion anfallenden Prozessdaten von Bedeutung sind.
Das Forschungsziel ist demnach die Überführung der im MES anfallenden Daten zu Informationen, die für einen auf die Ermöglichung von Remanufacturing ausgerichteten DPP relevant sind. Dazu wird zunächst eine Literaturrecherche zur Identifizierung potenziell relevanter Prozessdaten in MES sowie in einem DPP für das Remanufacturing erforderlichen Informationen durchgeführt. Um den aktuellen Stand der Technik zu berücksichtigen und konkrete Datenbedarfe für das Remanufacturing zu erfassen, werden diese Grundlagen mit Experteninterviews im produzierenden Sektor angereichert. Die Gegenüberstellung des Informationsbedarfs eines DPP und Datenangebots eines MES erlaubt die Ableitung einer Methodik zur Überführung relevanter Daten in einen DPP. Diese Methodik wird anschließend in der DFA Demonstrationsfabrik Aachen GmbH prototypisch validiert. Die Ergebnisse sollen produzierende Unternehmen unterstützen, mit ihrer bestehenden IT-Systemlandschaft DPP im Kontext des Remanufacturing umzusetzen.
Business ecosystem analysis of companies undergoing digital transformation - A case study analysis
(2021)
In den vergangenen Jahren haben fahrerlose Transportsysteme (FTS) eine rasant fortschreitende Entwicklung durchlaufen, insbesondere im Hinblick auf ihre Integration und Kommunikation, sowohl untereinander als auch mit anderen IT-Systemen (z. B. VDA 5050). FTS sind nicht länger starre abgegrenzte und unabhängige Systeme, sondern sie sind in der Lage, in Echtzeit mit anderen IT-Systemen und Assets zu kommunizieren und zu reagieren. Um die Vorteile dieser Integration und Kommunikation zu nutzen, müssen Unternehmen diverse Herausforderungen bewältigen. Dazu gehören beispielsweise die Festlegung notwendiger Datenquellen und entsprechender Datensätze, die Identifikation relevanter IT-Systeme sowie die Bestimmung geeigneter Schnittstellen und Kommunikationsfrequenzen.
In dieser Arbeit werden mittels einer Literaturrecherche mögliche Potenziale einer vertieften Integration von FTS in die IT-Systemlandschaft identifiziert, und die damit verbundenen datenbezogenen Herausforderungen werden ermittelt. Dabei werden Aspekte wie die Definition von Datenquellen, die Nutzung und Übertragung von Daten, die Integration in bestehende IT-Systeme und deren Kompatibilität, die Kommunikation zwischen den verschiedenen Komponenten, Skalierbarkeit und Flexibilität der Systeme sowie die Reaktion auf Störungen bei der Datenerfassung betrachtet. Anschließend wird ein Modell zur systematischen Identifikation und Bewertung dieser Herausforderungen sowie entsprechender Handlungsoptionen entwickelt.
Das Modell soll Unternehmen dabei unterstützen, die Potenziale einer vertieften Integration von FTS in die IT-Systemlandschaft sowie damit verbundene datenbezogene Herausforderungen rechtzeitig vor der FTS-Implementierung zu identifizieren.
Entwicklung eines Beschreibungsmodells für die Standardisierung industrieller Dienstleistungen
(2016)
In dieser Arbeit wird die Zielsetzung verfolgt, ein Beschreibungsmodell für die Standardisierung industrieller Dienstleistungen zu entwickeln. Das Beschreibungsmodell wird in Form einer Morphologie angelegt und neben der Standardisierung primär die Prozesse der industriellen Diensleistungserstellung fokussieren. Es werden prägende Merkmale von Standardisierungen und Prozessen herausgearbeitet und geeignete Merkmalesausprägungen hergeleitet. Einerseits soll die Morphologie ermöglichen, konkrete Standardisierungsmaßnahmen zu beschreiben und anhand der Merkmalsausprägungen Rückschlüsse auf die Ausrichtung und Wirkweise der Standardisierung zu ziehen zu können. Auf der anderen Seite sollen Prozesse derart beschrieben werden, dass Standardisierungspotenziale erkennbar und die Auswirkungen von Standardisierungsmaßnahmen über veränderte Merkmalsausprägungen der Prozessbeschreibung feststellbar werden.
Durch den steigenden internationalen Wettbewerb sind funktionierende, flexible und ressourcen-effiziente Supply-Chains heutzutage eine Grundvoraussetzung, um stetig steigende und sich verändernde Kundenanforderungen zu erfüllen. Ein wichtiger Faktor ist hierbei eine durchgängige Transparenz in der Supply-Chain, um zum richtigen Zeitpunkt schnelle und richtige Entscheidungen treffen zu können. Um diese Transparenz zu gewährleisten, müssen die richtigen Daten in ausreichender Qualität zur Verfügung stehen.
Die große Anzahl an unterschiedlichsten Daten, die heutzutage in den Unternehmen entlang einer Supply-Chain generiert werden, erschweren eine sinnvolle Entscheidungsfindung ohne vorherige Aufbereitung und Analyse dieser Daten.
Im Rahmen dieser Arbeit soll eine Softwarelösung entwickelt werden, welche eine Darstellung der Daten in aufbereiteter Form erlaubt und somit eine Entscheidungsunterstützung für den Supply-Chain-Planer bietet. Hierbei sollen nicht nur die relevanten Daten ausgewählt und angezeigt werden, sondern auch Kennzahlen bestimmt werden, welche zu einer Entscheidungsfindung beitragen könnten.
Ein am FIR entwickeltes Konzept eines Assistenzsystems zur Entscheidungsunterstützung auf Supply-Chain-Ebene bildet die Grundlage für diese Arbeit. Durch eine Literaturrecherche soll zunächst ermittelt werden, welche bereits bestehenden Softwareprodukte bei der Entscheidungsunterstützung im Supply-Chain-Management im Einsatz sind und inwiefern diese für den Zweck dieser Arbeit in Frage kommen. Des Weiteren sollen diejenigen Kennzahlen definiert und den Fragestellungen zugeordnet werden, die für eine entscheidungsunterstützende Darstellung der Daten benötigt werden. Darauf aufbauend muss ein Softwaretool entwickelt werden, welches die Visualisierung der zuvor definierten Kennzahlen ermöglicht. Die Validierung erfolgt mithilfe von generierten „Dummy-Daten“, die die hinterlegte Datenbank mit Daten füllen.
New challenges for companies appear as supply chain networks become more complex with increasing cost pressure, customer expectations and market volatility. Nowadays, logistics is an important competitive advantage, where fast and accurate decision-making is required. At the same time, companies often rely on performance measurement systems and key performance indicators (KPI) to improve their strategy and operations continuously.
Supply chain decisions are often interconnected as one decision can affect several others in the network. Besides, it is difficult to choose the right KPI to monitor the decision outcome. Moreover, current research about KPI relationships often relies on subjective evaluation. Currently there is no established scientific approach to analyze the interdependencies between decisions. Without understanding the interactions between decisions, the influencing factors will remain unclear and subsequently ignored, which leads to a decision process that lacks transparency.
Therefore, this thesis aims to analyze the interactions between strategic, tactical and operative decisions in the context of sourcing to provide transparency for decision-making.
This research proposes a generic approach that combines the Analytical Hierarchy Process (AHP) and network science to identify the driving factors of decisions systematically. Driving factors of decisions and suitable KPIs will be indicated through a constructed network analysis. A literature analysis is conducted to identify appropriate KPIs and decision factors for sourcing decisions. A generic cause-and-effect network is built by breaking down KPIs hierarchically. Moreover, by visualizing the relationships between decisions and decision factors, a transparent and informative network will be presented. The results will be integrated into a tool that enables the analysis of interdependencies of decisions based on network algorithms.
Der Wandel in dem sich die globale Marktwirtschaft befindet stellt für viele Unternehmen eine große Herausforderung dar. Um die zunehmende Komplexität der Technologie zu meistern und mit der Geschwindigkeit des Marktes mitzuhalten beschränken sich immer mehr Unternehmen auf ihre Kernkompetenzen. Das steigert die Bedeutung einer gut funktionierenden Supply-Chain. Eine Voraussetzung hierfür ist ein großer und schneller Datenstrom damit die Unternehmen schnell und flexibel auf ihr Umfeld reagieren können.
Um diese Daten zu nutzbaren Informationen verarbeiten zu können benötigt es jedoch Erfahrung und Wissen über Zusammenhänge der Daten und den Kontext in dem Sie genutzt werden sollen. Ohne dieses Wissen bleiben die großen Mengen an Daten ohne Mehrwert für das Unternehmen. Besonders wichtig zum verarbeiten von Daten, ist eine hohe Transparenz entlang der Supply-Chain.
Um Entscheidungen aufgrund der Informationen treffen zu können, muss bekannt sein, welche Daten die Entscheidungen beeinflussen. Außerdem sind die Auswirkungen von Entscheidungen untereinander von großer Bedeutung. Es ist entscheidend
zu wissen ob Entscheidungen andere Entscheidungen entlang der Supply-Chain beeinflussen oder voraussetzen.
Diese Arbeit beschäftigt sich mit den Wechselwirkungen zwischen Entscheidungen in der Beschaffung. Ziel ist es, die Entscheidungen, die im Beschaffungsprozess anfallen, zu charakterisieren um mögliche zusammenhänge und Abhängigkeiten
aufzuzeigen.
Zunächst wird der Grundlegende Aufbau einer Entscheidung beschrieben und bereits bestehende Ansätze zur Charakterisierung von Entscheidungen recherchiert.
Darauf folgt die Beschreibung der Beschaffung als Teil der Supply-Chain und die Abgrenzung von anderen Funktionsbereichen eines Unternehmens. Dabei werden Verbindungen und Abhängigkeiten zu anderen Unternehmensteilen und Markteilnehmern
aufgezeigt und die anfallenden Entscheidungen in der Beschaffung herausgearbeitet und beschrieben.
Auf Grundlage des Aufbaus von Entscheidungen, bestehenden Ansätzen und dem Wissen über den Funktionsbereich der Beschaffung werden anschließend Merkmale von Entscheidungen im Bereich Beschaffen herausgearbeitet und für jedes
Merkmal spezifische Ausprägungen definiert. Diese Merkmale und Ausprägungen werden in einem Morphologischen Kasten zusammengetragen.
Die herausgearbeiteten Entscheidungen in der Beschaffung werden mit Hilfe des Morphologischen Kasten bewertet. Dies geschieht durch eine begründete Einordnung der erarbeiteten Entscheidungen in eine der Ausprägungen jedes Merkmals.
Zur Auswertung der Bewertung wird ein hierarchischer Clusteralgorithmus benutzt. Hierbei werden immer die beiden ähnlichsten Entscheidungen zu einem Cluster zusammengefasst. Nach und nach entstehen somit Gruppen verschiedene
Cluster von Entscheidungen.
In der Automobilzuliefererindustrie liegt der strategische Fokus oftmals in der Maximierung der Auslastung der Produktionslinien bzw. des Gesamtsystems. Damit einhergehend werden Ausfall- und Stillstandszeiten möglichst minimiert. Um möglichst produktiv zu agieren, werden bereits heute viele Verbesserungsprojekte seitens der Zulieferer initiiert und dokumentiert. Dadurch wird ein kontinuierlicher Verbesserungsprozess gewährleistet, der es den Unternehmen ermöglicht aus den Fehlern zu lernen. Die dabei entstehenden Daten, die oftmals in Textform in verteilten Systemen vorliegen, werden in diesem Zuge oftmals nicht analysiert, um bespielsweise unbekannte Muster zwischen auftretenden Fehlern und deren Lösungen zu erkennen. Unternehmen fehlt eine systematische Bewertungsmethode, um die Potenziale von Text Mining zur Analyse von Zusammenhängen zwischen auftretenden Fehlern und deren Lösung zu identifizieren, um dadurch noch unbekannte Potenziale zu heben.
Um diese Herausforderungen zu lösen, werden in einem ersten Schritt die Anwendungspotenziale von Text Mining beschrieben und übergeordnete Problemstellungen identifiziert. Daran anschließend werden Merkmale, welche die Verfahren und deren Eignung anhand von Effizienz- und Effektivitätskriterien klassifizieren, beschrieben. So wird beispielsweise analysiert, wie aufwendig die Durchführung der einzelnen Verfahren zur Identifikation der Muster ist (Anzahl der Iterationen, Anpassungsbedarf, Automatiserbarkeit, etc.).
Validiert wird das Vorgehen am Beispiel eines Automobilzulieferers, in dem Ursachen von Problemen im Herstellungsprozess mit Hilfe von Text Mining analysiert und Verknüpfungen zwischen speziellen Problemen und standardisierten Dokumenten hergestellt werden.
Das damit verbundene Ziel dieser Arbeit ist es eine systematische Bewertungsmethode in Form eines Leitfadens zu erarbeiten, der Pratikern hilft den Einsatz und den Aufwand von Text Mining zu bewerten.
Entwicklung eines Evaluationswerkzeugs zur Bestimmung des Fits von Anwendungsideen für GAIA-X
(2023)
Der mit der digitalen Transformation einhergehende Datenaustausch zum Zweck der Datenverarbeitung findet derzeit vor allem über das Cloud-Computing statt. Außereuropäische Anbieter mit großer Marktmacht dominieren diese Cloud-Angebote. Dabei wirft die Marktstruktur bisher unbeantwortete Fragen zur Datensouveränität auf. Hinzu kommen Fragen der Portabilität, Interoperabilität und Interkonnektivität der verwendeten Systeme. Diese Fragen versucht die Initiative ‚GAIA-X‘ zur Errichtung einer souveränen europäischen Dateninfrastruktur aufzufangen und zu beantworten. Als föderiertes System soll ‚GAIA-X‘ kein Cloud-Anbieter sein, sondern verschiedene Datenplattformen über offene Schnittstellen und Standards zu einem Dateninfrastruktur-Ökosystem verbinden. Allerdings liegt die Expertise zu ‚GAIA-X‘ aktuell nur bei wenigen Experten. Auf Nutzerseite besteht hingegen großer Wissensbedarf. Dies macht es erforderlich, einen Entwicklungsbaukasten für einen niedrigschwelligen Einstieg in ‚GAIA-X‘ zu entwickeln. Ziel dieser Arbeit ist die Entwicklung eines Evaluationswerkzeugs zur Bestimmung des Fits vorliegender Anwendungsideen für ‚GAIA-X‘ als möglicher Baustein dieses Baukastens. Hierzu erfolgt zunächst ein Technologievergleich von ‚GAIA-X‘ mit vergleichbaren Datenaustauschtechnologien, um eine Beschreibungscharakteristik für ‚GAIA-X‘ zu erhalten. Anhand dieser werden dann Bewertungskriterien für Anwendungsideen im Kontext von ‚GAIA-X‘ gebildet. Anschließend werden Methoden zur Ideenfindung daraufhin analysiert, ob sie im Hinblick auf die Bewertungskriterien wertige Anwendungsideen für ‚GAIA-X‘ generieren. Eine geeignete Methode wird ausgewählt und gegebenenfalls an die Erfordernisse angepasst. Abschließend erfolgt die Entwicklung eines Evaluationswerkzeugs zur Bestimmung des Fits formalisierter Anwendungsideen für ‚GAIA-X‘. Erwartete Ergebnisse sind eine Beschreibungscharakteristik für ‚GAIA-X‘, Bewertungskriterien für sowie eine Methode zur Generierung von Anwendungsideen für ‚GAIA-X‘ und ein Evaluationswerkzeug zur Bestimmung des Fits von ‚GAIA-X‘-Anwendungsideen.
Die Zielsetzung der vorliegenden Bachelorarbeit ist es, einen Ansatz zur Systematisierung von Reaktionsstrategien für Abweichungssituationen in der Fertigungssteuerung zu entwickeln. Der entwickelte Ansatz soll es ermöglichen, den Reaktionsaufwand für Abweichungssituationen zu reduzieren und somit eine schnellere Reaktion auf Abweichungen in der Fertigungssteuerung zu ermöglichen.
In der vorliegenden Arbeit wird die Typisierung von Machine-Learning-Anwendungsfällen in der Intralogistik untersucht, einem Sektor, der durch die digitale Transformation und die Einführung von Industrie 4.0-Technologien geprägt ist. Ziel ist es, ein Rahmenwerk zur systematischen Identifikation und Kategorisierung von Machine-Learning-Anwendungen zu entwickeln, um deren Effizienz und Wirksamkeit in logistischen Prozessen zu optimieren. Basierend auf einer umfangreichen Literaturrecherche und einer Reihe von Fallstudien werden spezifische Einsatzmöglichkeiten des maschinellen Lernens analysiert und klassifiziert. Die Ergebnisse bieten sowohl theoretische Einblicke in die systematische Anwendung digitaler Technologien in der Logistik als auch praktische Empfehlungen für deren Implementierung zur Steigerung der operationellen Effektivität in der Intralogistik. Diese Forschung leistet einen Beitrag zum Verständnis der Rolle des maschinellen Lernens in der digitalisierten Logistik und unterstreicht die Bedeutung einer strukturierten Herangehensweise für die erfolgreiche Adoption dieser Technologien in logistischen Abläufen.
MES Vertrieb im Anlagenbau
(2018)
Machine Learning methods have shown great potential in production during recent years and have subsequently played a significant role in driving the Industry 4.0 revolution. However, there is still a lack of systematic guidelines for identifying and implementing viable ML use cases in the manufacturing industry . The aim of this work therefore, is to identify whether machine learning classifiers can be used in addition to a traditional process monitoring method (tolerance window) in order to improve quality control of staking processes on an assembly line.
Applied methods:
Extensive literature research will be initially conducted in order to understand ongoing research in this field and to clearly define the research gap. For a scientific and structured execution, CRoss Industry Standard Process for Data Mining (CRISP-DM) method will be used as the backbone of the thesis. The first step of Business Process Understanding would include learning about the staking and quality testing processes. This will be followed by data extraction and Exploratory Data Analysis (EDA) as part of Data Understanding. The Data Preparation step would include cleaning, filtering, feature engineering and scaling in order to use as input for the model.
Preparing the Machine Learning model will include selecting, modeling, training and testing the appropriate classification algorithms e.g. Näive Bayes, XGBoost, Feed Forward Neural Network and Random Forest. Depending on a pre-defined success criteria such as Accuracy, Precision etc. the training and test results will be evaluated and the best performing model will be selected. Further, subject to the model performance and business requirments , possible methods for deployment of the classifier in real time production will be discussed.
Expected results:
This work will help to identify if process curve data from staking processes can be used to train machine learning models and improve quality monitoring on an assembly line. Good model performance will indicate potential to reduce waste and decrease unnecessary processing time at the testing station. Additionally, it will also assist the process experts understand unknown influences on the product quality. A systematic approach to implement machine learning for similar use cases involving curve data of staking processes and will be developed.
Reifegradmodell zur Bestimmung der Auswirkungen von Industrie 4.0 auf den industriellen Service
(2019)
Kürzere Produktlebens- und Innovationszyklen sowie eine zunehmende Kreislaufwirtschaft stellen
Unternehmen vor die Herausforderung, ihre Produktionsprozesse schnell an die sich wandelnden
Anforderungen anzupassen. Entscheidend für die Umsetzung einer anpassungsfähigen Produktion ist
eine flexible Intralogistik. Dabei setzen Unternehmen zunehmend auf autonome mobile Roboter (AMR).
AMR navigieren selbstständig und können ihre Route an die Umgebungssituation anpassen, ohne einen
Fahrer zu benötigen. In der Praxis werden diese Vorteile jedoch selten genutzt, da AMR nicht hinreichend
in das Produktionssystem eingebunden sind. Die Schwierigkeit dabei liegt in der Generierung von
Transportaufträgen, die auf die Echtzeit-Lage im Produktionssystem angepasst sind und alle relevanten
Daten auf dem Shopfloor berücksichtigen, um so auf unvorhergesehene Veränderungen flexibel und
effizient zu reagieren.
Das Ziel dieser Arbeit ist die Entwicklung eines Datenmodells, welches die Einflüsse auf den Einsatz von
AMR in der Produktion umfasst und die Erstellung von echtzeitfähigen Transportaufträgen ermöglicht.
Dazu wird zunächst eine Literaturrecherche durchgeführt, um relevante Aspekte wie Datenquellen,
-senken, und -flüsse zu identifizieren. Anschließend werden deren Einflüsse auf echtzeitfähige
Transportaufträge mittels der Betrachtung generischer Use-Cases ermittelt und in einem Datenmodell
erfasst. Das entwickelte Modell soll in der DFA Demonstrationsfabrik Aachen Gmbhl validiert werden.
Die Ergebnisse dieser Arbeit sollen Unternehmen bei der effektiven Implementierung von AMR
unterstützen und als Mittel zur Erhöhung der Reaktionsfähigkeit moderner Produktionssysteme dienen
Industry 4.0 and smart factories have brought significant advancements in manufacturing processes, particularly in intralogistics. A key factor which forms the basis for creating smart intralogistics systems is data. However, there exist several data-related issues that hamper the efficiency of the intralogistics process such as data unavailability, poor data quality, inconsistent data, or underutilization of available data. The challenge is to identify, categorize, evaluate, and solve these issues. Overcoming this will help organizations understand the most impactful challenges.
By analysing real-world scenarios and interviewing industry experts, the problems present within the intralogistics process that are caused by the previously mentioned data-related factors are identified. The identified issues are clustered, and the clusters are characterized. A literature review explores the existing solutions or approaches to overcome these limitations. Subsequently finding out if the identified problems can be solved with current technologies and approaches or further research and development is needed. Next, a framework is developed which will act as a guide on the classification, evaluation and prioritization of the identified challenges. In the final part, the framework is validated on an industry specific use case and its limitations and future scope are discussed.
This master thesis emphasizes the significance of data in intralogistics processes by identifying and addressing data-related issues. The outcome on one hand is state-of-the-art solutions for the identified problems and on the other hand is a framework which will support businesses in determining how to tackle data-related issues to gain most benefit with respect to efficiency, productivity, flexibility and quality.
The advancements in Industry 4.0 technologies have provided unprecedented opportunities for optimizing material transportation through various use cases that are possible through rapid technological advance. An important driver for the use cases is data. However, the lack of understanding, which
specific data, from which sources and in what frequency, slows down the implementation of use cases or even reduces their potential benefits. Companies lack the ability to prepare themselves correctly for a use case integration, especially from the data perspective (e.g. data availability, quality, integration).
Therefore, the goal of this thesis is to create a framework for evaluation of Industry 4.0 use cases in the materials' transportation with regard to needed data. The scientific approach employed in this research involves research and analysis of existing frameworks for description or assessment of use cases in different fields and industries. Following, specific use cases related to material transportation in the context of Industry 4.0 will be identified in order to find similarities in the structure and requirements
regarding needed data, and thus identifying common characteristics and key parameters. These parameters will then serve as the foundation for developing a framework that enables companies to systematically analyse and assess potential use cases for material transportation, considering the data requirements and its integration challenges.
The expected result of this thesis is the development of a practical framework that empowers organizations to evaluate and implement Industry 4.0 use cases for material transportation effectively. By providing a structured methodology, this framework will facilitate decision-making processes and support companies in identifying the most suitable use cases based on their specific requirements and
data availability.
The goal of this thesis is to provide startups with a minimal framework for process management that allows them to take the first steps towards Quality Management. Based on existing approaches and methods - with focus on Lean Thinking and Quality Management - the framework should provide a practical guideline to standardize and optimize processes within startups, considering their limited resources and the uncertainty of the environment they operate in.
Different levels of standardization provide an optimal tradeoff between standardization effort and process improvement, while an iterative evaluation process helps to deal with rising numbers and complexity of tasks while maintaining a low overhead. As a result, startups will be able to quickly evaluate if, how and to what degree a process needs standardization, based on available knowledge about the process.
Die Klima- und Energiepolitik führt zu einem schnellen Wandel des deutschen Energieversorgungssystems, wobei der verstärkte Einsatz erneuerbarer Energien neue Herausforderungen für das Stromverteilnetz mit sich bringt. Diese Arbeit untersucht die Notwendigkeit einer dynamischen Netzinfrastruktur, um die fluktuierende Energieerzeugung effizient zu integrieren und neue Verbraucher wie Elektromobilität zu versorgen. Dabei spielen die Vielfalt und das zunehmende Alter der Anlagen im Verteilnetz eine Rolle, ebenso wie der Fachkräftemangel und steigende Netzentgelte. Ein zentraler Ansatz zur Bewältigung dieser Herausforderungen ist die Implementierung von künstlicher Intelligenz und fortschrittlicher Technologie, um eine proaktive Instandhaltung des Netzes zu ermöglichen. Ziel der Arbeit ist es, ein Geschäftsmodell auf Basis künstlicher Intelligenz für die Instandhaltung des Stromverteilnetzes zu entwickeln und damit wirtschaftliche Einsatzmöglichkeiten für solche Konzepte aufzuzeigen. Die Forschungsfragen konzentrieren sich auf die Herausforderungen der Netzbetreiber, ihre Bedarfe und Anforderungen sowie die Möglichkeiten, die künstliche Intelligenz bietet.