Refine
Document Type
- Article (4)
- Book (4)
- Part of a Book (6)
- Conference Proceeding (1)
- Contribution to a Periodical (20)
- Internet Paper (1)
- Report (4)
- Working Paper (12)
Language
- German (52) (remove)
Is part of the Bibliography
- no (52)
Keywords
- 01 (2)
- 02 (7)
- 3PhasenKonzept (3)
- AM4Industry (1)
- APS-System (1)
- Additive Fertigung (1)
- Algorithmus (1)
- Anforderungsmanagement (1)
- Auftragsabwicklung (1)
- Bahn (2)
Institute
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
Durch die Globalisierung haben sich in den letzten Jahrzehnten überwiegend internationale und hochkomplexe Lieferketten entwickelt. Nationale und internationale Herausforderungen, wie beispielsweise der Brexit, die Corona-Pandemie, Handelskriege und Protektionismus oder auch verschiedene Naturkatastrophen haben in der Vergangenheit gezeigt, dass die Relevanz eines ganzheitlichen Supply-Chain-Risikomanagements durch den Anstieg der Komplexität in den Lieferketten stark gestiegen ist.
Im Mittelpunkt der IT-Systemarchitektur der großen und kleinen Unternehmen fungiert als zentrale Instanz seit jeher das Enterprise-Resource-Planning-System (kurz ERP-System). Damit dient es als Schnittstelle zur hochgradigen Integration von Anwendungen, die verstärkt die Kernapplikationen erweitern und modernisieren. Für die zunehmend an Projekten ausgerichtete Prozessmodellierung ist das implementierte ERP-System in seiner Agilität und Offenheit zu begrenzt. Individuelle Lösungen werden für unternehmerische Anforderungen geschaffen, aber nicht in den Standard überführt. In diesem Positionspapier zeigen wir, die Fachgruppe Produktionsplanung des FIR, anhand verschiedener Sichtweisen ausgewählte Trends auf, die großes Potenzial für die Zukunft des ERP-Systems bereithalten.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Heutige Unternehmen sehen sich fortwährend verschärften Marktanforderungen ausgesetzt. Als Schlüssel zur Sicherung der Wettbewerbsfähigkeit erweist sich neben der Entwicklung neuer Produkte oder dem Einsatz innovativer Fertigungstechnologien insbesondere die Kooperation mit Kunden und Lieferanten, also die Bildung von Unternehmensnetzwerken entlang der Wertschöpfungskette. Unter dem Begriff Supply Chain Management (SCM) werden Software-Lösungen gehandelt, die Unternehmen bei der Gestaltung, Planung und Steuerung dieser Netzwerke unterstützen. Für potenzielle Anwender stellt sich der Markt für SCM-Software allerdings als sehr unübersichtlich dar. Die angebotenen Lösungen unterscheiden sich sowohl in ihren Funktionsumfängen wie auch in ihren Lösungsansätzen. Ziel: Dieser Marktspiegel verfolgt das Ziel, einen schnellen Überblick über den Markt für SCM-Software zu geben. Unternehmensfachleute und Entscheider erhalten so grundlegende Informationen über das aktuelle Angebot an SCM-Software. Der einführende Teil ordnet nach einer Begriffsbestimmung das Supply Chain Management in den Aufgabenkomplex der betrieblichen Planung und Steuerung ein. Es folgt eine grundlegende Bewertung der untersuchten SCM-Software im Hinblick auf die Unterstützung der relevanten Aufgaben. Anschließend folgen konkrete Hilfestellungen für die Durchführung eines Projektes zur Auswahl eines SCM-Systems, indem eine Methodik zur sicheren und effizienten Auswahl und Einführung von SCM-Lösungen vorgestellt wird. Abschließend gibt der Marktspiegel einen Überblick über die relevanten Anbieter und deren Software-Angebot. Im Rahmen einer SoftwareAuswahl bietet der Marktspiegel demnach eine erste Orientierung im Markt für SCM-Software. Im Verbund mit der Internetplattform IT-Matchmaker®
unterstützt der Marktspiegel darüber hinaus Unternehmen bei der konkreten Durchführung eines Auswahl-Projekts im SCM-Bereich. Konzept:
Grundlage des Marktspiegels ist ein Aufgabenmodell, aus dem ein standardisierter Fragenkatalog entwickelt wurde. Hiermit lassen sich die verschiedenen im Marktspiegel abgebildeten Softwarelösungen übersichtlich und detailliert darstellen und vergleichen. Gleichzeitig dient der Fragenkatalog als Vorlage für die Erstellung von Lastenheften im Rahmen konkreter Auswahlprojekte. Der Fragenkatalog sowie die jeweils aktuellen Marktdaten sind über den IT-Matchmaker® (www.itmatchmaker.com) der Trovarit AG verfügbar und unterstützen die Vorauswahl einer geeigneten SCM-Software.
Nachhaltiges Wirtschaften und verantwortungsvoller Umgang mit Ressourcen und Umwelt haben in der deutschen Gesellschaft einen hohen Stellenwert erlangt. Durch eine bessere Produktrückverfolgung und höhere Transparenz in Supply-Chains wird ressourcenschonendere Wertschöpfung ermöglicht. Zusätzlich fordern Kunden eine Einsicht in die Lieferkette und wollen über Produktion und Herkunft der Produkte informiert werden. Die Blockchain als verteilte Datenbank mit außerordentlicher Datensicherheit, Verfügbarkeit von Informationen in Echtzeit im gesamten Netzwerk und hoher Verlässlichkeit bietet dabei die technologische Grundlage, die Transparenz in den Lieferketten zu erhöhen. So können Daten zu Emissionen, Arbeitsbedingungen, Materialherkunft und weiteren Nachhaltigkeitskriterien entlang der Lieferkette aufgenommen und verteilt werden.
Die Anforderungen von Anwendern und Lösungsanbietern an eine Blockchain-Applikation flossen in eine Referenzarchitektur für diese ein. Dabei wurden z. B. die Gestaltung von Schnittstellen, benötigte Daten und Zugangsrichtlinien definiert. Gemeinsam mit dem DIN wurden die Ergebnisse in eine Standardisierung überführt. Anschließend wurden Gestaltungsempfehlungen zur Integration einer Blockchain-Applikation abgeleitet und die Ergebnisse in Unternehmen validiert.
Die Referenzarchitektur dient der erleichterten Entwicklung und Implementierung von Blockchain-Applikationen und damit einer Reduzierung von Kosten, Risiken und Zeitaufwand für KMU. Dem Kunden wird ein besserer Zugang zu Informationen über die Herkunft seiner Produkte ermöglicht, um ökologisch sinnvolle und nachhaltige Kaufentscheidungen treffen zu können.
Heutige Implementierungsprojekte sind davon geprägt, dass nach dem Go-Live keine Prozesse zur Verfügung stehen, die es ermöglichen, dass neue Anforderungen effizient und kostengünstig umgesetzt werden. Dies resultiert in einem sinkenden Nutzen für die Anwender. Erst, wenn das eingesetzte System durch zahlreiche Workarounds und selbst entwickelte Anwendungen nicht mehr handhabbar ist, werden kostenintensive Anpassungs- und Neueinführungsprojekte angestoßen. Ein Ausweg hieraus kann ein konsequent umgeetztes, kontinuierliches und kurzzyklisches Anforderungsmanagement sein, dass Prozesse und eingesetzte IT-Lösungen deckungsgleich hält.
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
In der neuen Expertise des Forschungsbeirats Industrie 4.0 untersuchen das FIR e. V. an der RWTH Aachen und das Industrie 4.0 Maturity Center den Status-quo und die aktuellen Herausforderungen der deutschen Industrie bei der Nutzung und wirtschaftlichen Verwertung von industriellen Daten. Handlungsoptionen für Unternehmen, Verbände, Politik und Wissenschaft zeigen auf, wie der Nutzungsgrad der Datenbasis erhöht werden kann und wie sich Potenziale bei der Monetarisierung ausschöpfen lassen. Der Fokus liegt dabei auf produzierenden Unternehmen.
Dieser Bericht enthält die zentralen Ergebnisse einer Studie des Center Integrated Business Applications im Auftrag der proALPHA Business Solutions GmbH und wurde in Kooperation mit dem FIR e. V. an der RWTH Aachen durchgeführt.
Ziele der Studie:
- Analyse des Marktes von CO2-Management-Software,
- die Bestimmung der Informationsverfügbarkeit zur CO2-Bilanzierung sowie potenzieller Stellschrauben zur CO2-Reduktion mittels Business-Software.
DaFuER - Anwendung der Datenfusion bei der Erfassung und Speicherung
betrieblicher Rückmeldedaten
(2021)
Zentrale Herausforderung der Globalisierung und Digitalisierung für produzierende Unternehmen in Deutschland sind steigende Kundenanforderungen nach individuelleren Produkten bei gleichzeitig stetig kürzer werdenden Lieferzeiten. Insbesondere für kleine und mittlere Unternehmen steigt der Kosten- und Innovationsdruck durch wachsende Konkurrenz aus Niedriglohnländern und einen schrumpfen-den Technologievorsprung. Aus diesen Herausforderungen entsteht die Anforderung einer echtzeitfähigen und effizienten Produktionsplanung und -steuerung, die eine fundierte und kurzfristige Entscheidungsfindung erlaubt. Grundlage für eine leistungsstarke Produktionsplanung und -steuerung ist eine hohe Informationsverfügbarkeit. Das allein ist jedoch keine hinreichende Bedingung für eine effiziente Produktionsplanung und -steuerung, da nur bei einer ausreichenden Datenqualität eine zuverlässige Entscheidungsfindung möglich ist. Ferner bieten die zunehmende Digitalisierung und Vernetzung steigendes Nutzenpotenzial für datenbasierte Wertschöpfung, was die Relevanz einer hohen Datenqualität zusätzlich verstärkt. Zentrale Herausforderung der Steigerung der Datenqualität sind die Investitionskosten der Implementierung von entsprechenden Maßnahmen. Dabei zeichnen sich kleine und mittlere Unternehmen (KMU) insbesondere durch eine beschränkte Investitionsfähigkeit aus.
Auf die Erhöhung der Datenqualität eines aggregierten Datensatzes zielt die Datenfusion durch Kombination verschiedener Datenquellen ab. Die unterschiedlichsten Methoden der Datenfusion werden bereits seit längerem in nicht produktionsnahen Bereichen an-gewendet. Das Forschungsprojekt „DaFuER“ unterstützt bei dem Transfer der Methoden in das Produktionsumfeld. Hierbei werden vor allem kleine und mittlere Unternehmen bei der Optimierung ihrer Datenqualität angeleitet, indem eine transparente Entscheidungsunterstützung u. a. durch einen Leitfaden zur Datenfusion und ein Online-Tool ermöglicht wird.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.
Die Anforderungen an den Einsatz von IT-Systemen haben sich in den letzten Jahren geändert. Anstelle von allumfassenden Komplettlösungen stehen insbesondere Flexibilität und Funktionalität im Mittelpunkt der Gestaltung von ERP-zentrierten IT-Systemlandschaften. Es besteht der vermehrte Wunsch nach einer verbesserten funktionalen Abdeckung, welches u. a.durch den verstärkten Einsatz von weiteren IT-Systemen erreicht werden kann. IT-Systemlandschaften rund um das ERP-System werden so immer vielschichtiger. Problematisch dabei ist, dass durch eine fehlende systematische Gestaltung der IT-Systemlandschaften unklare Verantwortlichkeiten, komplexe Schnittstellen sowie funktionale Überschneidungen und Datenchaos entstehen. Ein weiterer Effekt ist die wachsende Anzahl an Schatten-IT, die entsteht, weil die allumfassende Komplettlösung nicht alle benötigten Funktionen abdeckt.
Die verarbeitende Industrie in Deutschland steht vor der Transformation von der bisher vorherrschenden ökonomisch orientierten Produktion hin zu einer nachhaltigen Produktion. Durch die Anpassung von Parametern der Produktionsplanung und -steuerung, wie z. B. der Losgröße durch u. a. die Konsolidierung von Transportaufwänden oder geringe Reinigungsaufwände, kann dabei eine nachhaltigere Produktion erreicht werden. Hierfür wurde mittels einer systematischen Methodik ein digitaler Schatten konzeptioniert, der eine nachhaltige Konfiguration von Losgrößen ermöglicht. Dafür erfolgen eine Aggregation von Daten aus verschiedenen Informationssystemen und die Simulation des Verhaltens eines Produktionssystems bei veränderten Losgrößen. Diese ermöglichen eine optimierte Auslegung der Losgröße, basierend auf ökonomischen und ökologischen Zielgrößen.
Das moderne Produktionsmanagement als Organisator der Entscheidungen und Prozesse in der industriellen Auftragsabwicklung ist ein zentraler Baustein zur Umsetzung der Nachhaltigkeitswende. Seine Aufgabe besteht darin, nachhaltige und kreislaufwirtschaftliche Prozesse durch den geeigneten Einsatz von effizienten IT-Systemlandschaften zu fördern und umzusetzen. Die Digitalisierung dient dabei als zentrales Element der Umsetzung ökonomischer, ökologischer und sozialer Unternehmensziele.
Künstliche Intelligenz (KI) hat sich über die letzten Jahre stetig zu einem Thema mit strategischer Priorität für Unternehmen entwickelt. Das zeigt sich nicht zuletzt in der gesteigerten Investitionsbereitschaft deutscher Unternehmen in KI-Projekte. Wirtschaftliche Akteure haben erkannt, dass durch eine sinnvolle Nutzung von KI-Technologien Wettbewerbsvorteile erzielt werden können. Die vorliegende Studie legt das Augenmerk auf den industriellen Einsatz einer KI-Technologie, die bereits heute von vielen Unternehmen erfolgreich genutzt wird: Die natürliche Sprachverarbeitung (engl. Natural Language Processing, kurz NLP). Die wirtschaftlichen Potenziale der Technologie liegen dabei in ihrer Fähigkeit, betriebliche Abläufe zu automatisieren und die Schnittstelle zwischen Mensch und Maschine zu verbessern und zu vereinfachen. Ziel der Studie ist es, die Potenziale der NLP-Technologie für Unternehmen nutzbar zu machen, indem konkrete Anwendungsfälle und allgemeine Handlungsempfehlungen sowie Nutzen und Risiken aufgezeigt werden.
Das Produktionssystem ist ein offenes, sozio-technisches System. Es besitzt eine komplexe Struktur, in der Menschen, Maschinen, Material und Informationen zusammenwirken, um eine Wertsteigerung zu erreichen. Das Produktionssystem steht in ständiger Interaktion mit seiner Umwelt (Westkämper et al. 2013). So sind die Kunden-Lieferanten-Beziehungen von Produktionssystemen häufig dynamisch und instabil. In dieser Gesamtkomplexität können Störungen auftreten, z.B. Maschinen- und Personalausfall sowie Fehlmaterial, die zu Termin- und Lieferverzögerungen führen. Dabei bildet die kundenbezogene Liefertermintreue mit Abstand die führende logistische Zielgröße für produzierende Unternehmen in Deutschland (Brambring et al. 2013). Vor allem im Maschinen- und Anlagenbau, der durch eine besonders komplexe Auftragsabwicklung geprägt ist, stellt eine hohe Liefertermintreue einen bedeutenden Wettbewerbsvorteil dar. Sie wird häufig als Indikator für Prozessqualität herangezogen, welche dem Kunden Zuverlässigkeit demonstriert und zugleich eine interne Voraussetzung für die Planbarkeit des eigenen Geschäftsbetriebs ist (VDMA 2007). Während eine planmäßige und somit termintreue Abwicklung des Leistungserstellungsprozesses Kundenbindung bewirkt, führen Terminüberschreitungen häufig zum Verlust von Kundenbeziehungen sowie Vertragsstrafen (Arnolds et al. 2016).Störungen im Produktionssystem gefährden die Liefertermintreue und damit die Kundenzufriedenheit (Bosshardt 2007). Durch Gegenmaßnahmen entstehen außerdem Zusatzkosten, z.B. durch Zusatzschichten oder Auslagerung von Fertigungsschritten, die die Profitabilität der Aufträge gefährden können. Daher ist es für Unternehmen wichtig, bei Störungen nicht nur die potenziellen Handlungsoptionen, sondern viel mehr deren finanziellen Auswirkungen auf das Produktionssystem zu kennen, um eine optimale Strategie entwickeln zu können. Nur diese Transparenz ermöglicht es Unternehmen, die negativen finanziellen Auswirkungen gegen die negativen Auswirkungen auf die Kundenbeziehungen abzuwägen. In der Praxis stellt sich diese Aufgabe allerdings als sehr schwierig heraus. Unternehmen reagieren häufig nur reaktiv und erfahrungsbasiert. Mitarbeiter müssen sowohl die komplexen Abläufe im Betrieb kennen als auch potenzielle Handlungsoptionen sowie deren Auswirkungen abschätzen können. Dabei müssen die Mitarbeiter eine Komplexität überwinden, die insbesondere bei Einzel- und Kleinserien aufgrund der hohen Vielfalt von Produkten und Prozessen besonders hoch ist. Dies trifft besonders auf KMU zu, die nur über rudimentäre Softwareunterstützungen verfügen.In der Folge werden häufig suboptimale und teure Maßnahmen getroffen. Gleichwohl sind die finanziellen Auswirkungen nicht immer direkt nachvollziehbar, was die finanzielle Stabilität des Unternehmens gefährdet. Darüber hinaus kann die Liefertermintreue der Aufträge, die nicht direkt durch die Störungen betroffen sind, stark negativ beeinflusst werden. Die Summe der daraus entstehenden Folgen kann sich in manchen Fällen stärker auf das Unternehmen auswirken als die Verspätung eines einzelnen, wenn auch wichtigen Auftrages, der direkt durch die Störung betroffen ist. Das durchgeführte Forschungsprojekt „EkuPro“ unterstützt Unternehmen bei der Bewältigung dieser Herausforderungen, indem eine transparente Entscheidungsunterstützung durch das entwickelte Softwaretool ermöglicht wird.
Zielsetzung:
Das Ziel des erarbeitenden Forschungsprojektes war die Entwicklung eines Tools zur objektiven Entscheidungsunterstützung, mit dem kompensatorische Maßnahmen zur Beschleunigung einzelner Aufträge quantitativ und finanziell bewertet werden können. Das Tool unterstützt den Produktionssteuerer, indem es bei kurzfristigen Entscheidungen einen Überblick über die möglichen Handlungsalternativen zur Verfügung stellt. Der Produktionssteurer kann somit auf Basis der angezeigten potenziell entstehenden Kosten eine optimale Entscheidung treffen. Zur Unterstützung wurden die Simulationsergebnisse visualisiert, um die Analyse zu erleichtern. Zudem ist das Tool auf mobilen Endgeräten einsatzfähig. Das Grundprinzip des Tools besteht darin, beim Auftreten einer Störung zunächst die aktuelle Situation des Produktionssystems und die Störung selbst zu erfassen. Dabei werden interne und externe Störungen berücksichtigt, wobei externe Störungen nicht direkt, sondern durch ihre Auswirkungen auf die interne Produktionslogistik beschrieben werden. Die notwendigen Daten zur Abbildung der aktuellen Situation sollen den gängigen Systemen, z.B. MES und ERP, entnommen werden. Auf dieser Basis kann der Produktionsplaner verschiedene Szenarien definieren, die jeweils ein unterschiedliches Set an Maßnahmen beinhalten. Die Auswirkung dieser Maßnahmen wird mithilfe einer Software simuliert und die Ergebnisse, vor allem die Liefertermintreue der Aufträge sowie die finanziellen Mehrkosten, werden visualisiert. Dadurch werden die Szenarien untereinander quantitativ vergleichbar. Dies ermöglicht dem Produktionsplaner die Auswahl einer aus seiner Sicht sinnvollen Maßnahmenkombination.
Gegenüber den klassischen Systemen, z.B. MES und ERP, hat das Tool die folgenden Vorteile:
Zielgerichtete Entscheidungsunterstützung
Quantitative Vorhersage durch Simulation
Systematische Integration der Kostenermittlung und Liefertermintreue
Entgegen dem ursprünglichen Ziel, nur die Kosten des direkt durch die Störung betroffenen, verzögerten Auftrages zu betrachten, wurde in Absprache mit dem projektbegleitenden Ausschuss (pbA) entschieden, die finanzielle Auswirkung aller Aufträge zu berücksichtigen. Nur dadurch kann die Gesamtauswirkung der Maßnahmen vollständig untersucht und gegeneinander abgewogen werden. Diese Erweiterung der Zielstellung des Projektes stellt einen erheblichen Mehrwert im Vergleich zum ursprünglichen Forschungsvorhaben dar.