Refine
Document Type
- Book (1)
- Part of a Book (3)
- Conference Proceeding (4)
- Contribution to a Periodical (12)
- Lecture (1)
- Internet Paper (1)
- Report (2)
- Working Paper (6)
Language
- German (22)
- English (5)
- Multiple languages (3)
Is part of the Bibliography
- no (30)
Keywords
- 01 (2)
- 02 (5)
- 03 (1)
- Anomaly detection (1)
- Auftragsabwicklung (1)
- Blockchain (1)
- CPSL (1)
- Crisis management (1)
- DaFuER (4)
- Data Quality (1)
Institute
- FIR e. V. an der RWTH Aachen (30) (remove)
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
Systematisation Approach
(2023)
Current megatrends such as globalisation and digitalisation are increasing complexity, making systems for well-founded and short-term decision support indispensable. A necessary condition for reliable decision-making is high data quality. In practice, it is repeatedly shown that data quality is insufficient, especially in master and transaction data. Moreover, upcoming approaches for data-based decisions consistently raise the required level of data quality. Hence, the importance of handling insufficient data quality is currently and will remain elementary. Since the literature does not systematically consider the possibilities in the case of insufficient data quality, this paper presents a general model and systematic approach for handling those cases in real-world scenarios. The model developed here presents the various possibilities of handling insufficient data quality in a process-based approach as a framework for decision support. The individual aspects of the model are examined in more detail along the process chain from data acquisition to final data processing. Subsequently, the systematic approach is applied and contextualised for production planning and supply chain event management, respectively. Due to their general validity, the results enable companies to manage insufficient data quality systematically.
Crises are becoming more and more frequent. Whether natural disasters, economic crises, political events, or a pandemic - the right action mitigates the impact. The PAIRS project plans to minimize the surprise effect of these and to recommend appropriate actions based on data using artificial intelligence (AI). This paper conceptualizes a cascading model based on scenario technique, which acts as the basic approach in the project. The long-term discipline of scenario technique is integrated into the discipline of crisis management to enable short-term and continuous crises management in an automated manner. For this purpose, a practical crisis definition is given and interpreted as a process. Then, a cascading model is derived in which crises are continuously thought through using the scenario technique and three types of observations are classified: Incidents, disturbances, and crises. The presented model is exemplified within a non-technical application of a use case in the context of humanitarian logistics and the COVID-19 pandemic. Furthermore, first technical insights from the field of AI are given in the form of a semantic description composing a knowledge graph. In summary, a conceptual model is presented to enable situation-based crisis management with automated scenario generation by combining the two disciplines of crisis management with scenario technique.
Heutige Unternehmen sehen sich fortwährend verschärften Marktanforderungen ausgesetzt. Als Schlüssel zur Sicherung der Wettbewerbsfähigkeit erweist sich neben der Entwicklung neuer Produkte oder dem Einsatz innovativer Fertigungstechnologien insbesondere die Kooperation mit Kunden und Lieferanten, also die Bildung von Unternehmensnetzwerken entlang der Wertschöpfungskette. Unter dem Begriff Supply Chain Management (SCM) werden Software-Lösungen gehandelt, die Unternehmen bei der Gestaltung, Planung und Steuerung dieser Netzwerke unterstützen. Für potenzielle Anwender stellt sich der Markt für SCM-Software allerdings als sehr unübersichtlich dar. Die angebotenen Lösungen unterscheiden sich sowohl in ihren Funktionsumfängen wie auch in ihren Lösungsansätzen. Ziel: Dieser Marktspiegel verfolgt das Ziel, einen schnellen Überblick über den Markt für SCM-Software zu geben. Unternehmensfachleute und Entscheider erhalten so grundlegende Informationen über das aktuelle Angebot an SCM-Software. Der einführende Teil ordnet nach einer Begriffsbestimmung das Supply Chain Management in den Aufgabenkomplex der betrieblichen Planung und Steuerung ein. Es folgt eine grundlegende Bewertung der untersuchten SCM-Software im Hinblick auf die Unterstützung der relevanten Aufgaben. Anschließend folgen konkrete Hilfestellungen für die Durchführung eines Projektes zur Auswahl eines SCM-Systems, indem eine Methodik zur sicheren und effizienten Auswahl und Einführung von SCM-Lösungen vorgestellt wird. Abschließend gibt der Marktspiegel einen Überblick über die relevanten Anbieter und deren Software-Angebot. Im Rahmen einer SoftwareAuswahl bietet der Marktspiegel demnach eine erste Orientierung im Markt für SCM-Software. Im Verbund mit der Internetplattform IT-Matchmaker®
unterstützt der Marktspiegel darüber hinaus Unternehmen bei der konkreten Durchführung eines Auswahl-Projekts im SCM-Bereich. Konzept:
Grundlage des Marktspiegels ist ein Aufgabenmodell, aus dem ein standardisierter Fragenkatalog entwickelt wurde. Hiermit lassen sich die verschiedenen im Marktspiegel abgebildeten Softwarelösungen übersichtlich und detailliert darstellen und vergleichen. Gleichzeitig dient der Fragenkatalog als Vorlage für die Erstellung von Lastenheften im Rahmen konkreter Auswahlprojekte. Der Fragenkatalog sowie die jeweils aktuellen Marktdaten sind über den IT-Matchmaker® (www.itmatchmaker.com) der Trovarit AG verfügbar und unterstützen die Vorauswahl einer geeigneten SCM-Software.
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.
Schwerwiegende Gesundheits- und Wirtschaftskrisen wie die Weltfinanzkrise (ab 2007) oder die Covid-19-Pandemie im Jahr 2020 haben aufgezeigt, in welch turbulentem Umfeld sich die globalisierte Welt heutzutage befindet und wie schnell gewohnte Abläufe in Wertschöpfungsketten unterbrochen und angepasst werden müssen. Die alltäglichen Anforderungen in dem sich immer schneller wandelnden digitalen Zeitalter wachsen stetig und sind komplexer denn je.
Unternehmen sind angehalten, immer kurzzyklischer auf sich ändernde
Bedingungen und Störungen zu reagieren und strategische Entscheidüngen
zur Gestaltung von Wertschöpfungsketten zu treffen. Nur mithilfe
einer umfassenden Datengrundlage und -kommunikation kann die strategische Planung der Supply-Chain effektiv erfolgen und somit die benötigte Robustheit und Agilität ermöglicht werden.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.