Refine
Document Type
- Contribution to a Periodical (4)
- Doctoral Thesis (2)
- Master's Thesis (2)
- Article (1)
- doctorallecture (1)
- Report (1)
- Working Paper (1)
Language
- German (12)
Is part of the Bibliography
- no (12)
Keywords
- Datenqualität (12) (remove)
Institute
Entwicklung eines Aktualisierungssystems, mit dessen Hilfe auf der Basis EDV- maschinell erfaßter Betriebsdaten Vorschläge für die Aktualisierung von Planungsdaten errechnet werden können. Durch den Einsatz eines BDE-Systems gelingt es dabei, die für eine derartige Auswertung erforderlichen Daten mit der notwendigen Sicherheit und Aktualität sowie mit geringem Aufwand zu erfassen und zu verarbeiten. Für die Errechnung von Aktualisierungsvorschlägen werden dabei mathematisch-statistische Verfahren eingesetzt, die als Prognoseverfahren bekannt geworden sind. Auf der Basis von Testdaten, wie sie in einem mittelständischen Maschinenbaubetrieb erhoben wurden, konnte exemplarisch gezeigt werden, daß sich mit Hilfe von Prognosesystemen die Übereinstimmung zwischen Plandaten und Ist-Daten bei fortschreitender Prognoserechnung verbessern läßt.
Qualität von PPS-Systemen
(1991)
Die wirkungsvolle Nutzung von PPS-Systemen bereitet den Anwendern oft erhebliche Probleme. Die Komplexität übersteigt bei vielen Systemen das Maß des sinnvoll Bearbeitbaren bei weitem. Die Nutzer von PPS-Systemen fühlen sich trotz der vielen Funktionen nicht hinreichend unterstützt. Vor diesem Hintergrund wird ein Verfahren zur Ermittlung des mittleren Informationsgehalts von PPS-Systemen beschrieben. In einem Praxisbeispiel wird nachgewiesen, daß der Informationsgehalt von mächtigen PPS- Systemen geringer sein kann als derjenige von kleinen, gut an die betrieblichen Verhältnisse angepaßten Systemen.
Um in komplexen Wertschöpfungsnetzwerken und an der Schnittstelle zwischen Kunden und Lieferanten valide, datenbasierte Entscheidungen treffen zu können, muss eine hohe Datenqualität vorliegen. Dabei mangelt es oft an einem Datenqualitätsmanagement (DQM), das den konkreten Anwendungsfall und den überbetrieblichen Austausch berücksichtigt. Wir stellen ein universales Rahmenwerk für das überbetriebliche DQM vor, das Ziele, Prozesse, relevante Daten und Akteure erfasst und den Grundstein für eine ganzheitliche Datenqualitätsstrategie legt.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
Durch die Verkürzung des Produktlebenszyklus und die zunehmende Internationalisierung des Wettbewerbs werden Unternehmen mit einer steigenden Komplexität im Supply-Chain-Management konfrontiert. Zur Reduzierung dieser Komplexität und zur Unterstützung der Entscheidungen der Mitarbeiter werden ereignisbasierte Systeme eingesetzt. Dazu zählen „Tracking & Tracing“-Systeme bei denen Informationen durch Statusmeldungen aufgenommen und anschließend angezeigt werden, und das Supply-Chain-Event-Management, bei dem zusätzlich die Möglichkeiten der Simulation, Steuerung und des Messens zur Verfügung stehen. Ein zentraler Begriff in diesem Zusammenhang stellt das Ereignis dar. Ereignisse bilden die informationstechnische Grundlage für die Abbildung und den Abgleich der Prozessabläufe in den ereignisbasierte Systemen. Um über die Prozesskette hinweg einheitliche Formen von Ereignissen zu erhalten, wurden verschiedene Standards definiert, unter denen der EPCIS der meist verbreitete ist. Die vom Supply-Chain-Partner erhaltenen Ereignisse bilden die Grundlage für alle nachgelagerten Schritte und müssen deshalb die korrekten Daten enthalten. Da die Datenqualität in zahlreichen Anwendungsfällen unzureichend ist und es aktuell keine allumfassenden Ansätze zu dem Umgang mit dieser Problemstellung in der Literatur gibt, wird in der vorliegenden Arbeit der Untersuchungsschwerpunkt auf fehlerhafte Daten gelegt. Dazu sind zunächst die Erscheinungsformen und Merkmale dieser Daten durch die Untersuchung der gebräuchlichen Klassifizierungen und Standards von Ereignissen und den aktuellen Ansätzen zur Definition der Datenqualität zu identifizieren. Im Anschluss wird basierend auf den gewonnen Erkenntnissen bezüglich der bestehenden Klassifikationssysteme, den Standards zur Ereignisbeschreibung und den generischen Qualitätsdefiziten eine Klassifikation entwickelt und validiert. Aus der erhaltenen Klassifikation werden abschließend (klassifikations-)typische Erscheinungsformen abgeleitet.
Im Rahmen der Arbeit wird ein Framework für Datenqualität (DQ) für Artikelstammdaten für ein Elektromobilitätsunternehmen entwickelt und für das Quellsystem der Entwicklung (PLM) implementiert. Zunächst werden dazu Anforderungen an die Datenqualität durch Experteninterviews erhoben und in Geschäftsregeln zur Bestimmung der Datenqualität überführt. Die Geschäftsregeln werden dabei in Abhängigkeit des Lebenszyklusstatus (Entwicklungsstatus) der Artikel definiert. Durch einen Abgleich mit gängigen Datenqualitätsframeworks werden die Geschäftsregeln Datenqualitätsdimensionen zugeordnet und dadurch ein individualisiertes Framework für Datenqualität in Abhängigkeit des Lebenszyklusstatus der Artikelstammdaten entwickelt.
Anschließend werden Dashboards zur Visualisierung der Datenqualitätsergebnisse und Ableitung von Maßnahmen zur Verbesserung der Datenqualität mittels Tableau entwickelt und implementiert, mit Hilfe dessen das entwickelte Datenqualitätsframework validiert wird.
eingesetzte Methoden:
Literaturrecherche, Experteninterviews, Modellbildung
Ergebnisse:
Lebenszyklusstatus-basiertes Datenqualitäts-Framework für Artikelstammdaten
initiale Datenqualitätsmessung und Darstellung der Ergebnisse mittels Datenqualitäts-Dashboards
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
Process-Mining
(2020)
Dieser Artikel gibt einen einführenden Überblick über die Ziele des Forschungsprojekts ‚DaFuER‘ und das Vorgehen in demselben. Ziel des Forschungsprojekts ist es, Methoden der Datenfusion zur Steigerung der Datenqualität im Kontext betrieblicher Rückmeldedaten anzuwenden. Hierzu soll im Vorhaben die Frage beantwortet werden, wie durch Ansätze der Datenfusion eine hinreichende Qualität von Rückmeldedaten in der Produktion kosteneffizient sichergestellt werden kann. Das IGF-Vorhaben 20579 N der Forschungsvereinigung FIRe. V. ander RWTHAachen, Campus-Boulevard 55, 52074 Aachen wird über die AiF im Rahmen des Programms zur Förderung der industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie (BMWi) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.