Refine
Document Type
- Book (1)
- Part of a Book (3)
- Contribution to a Periodical (9)
- Internet Paper (1)
- Report (2)
- Working Paper (6)
Language
- German (22) (remove)
Is part of the Bibliography
- no (22)
Keywords
- 01 (2)
- 02 (3)
- Auftragsabwicklung (1)
- Blockchain (1)
- DaFuER (4)
- Daten (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenauswertung (1)
- Datenfusion (5)
Institute
GAIA-X-Reifegradmodell
(2024)
Um die wachsenden Kundenanforderungen und die damit verbundene Komplexitätssteigerung der aktuellen Herausforderungen zu bewältigen, öffnen Unternehmen ihre Wertschöpfungsketten, reduzieren ihre Fertigungstiefe und gehen zunehmend Kooperationen ein. Der unternehmensübergreifende Datenaustausch entlang der Supply-Chain wird damit zu einer Schlüsselkomponente für die Wettbewerbsfähigkeit und die Realisierung kundenspezifischer Lösungen. Aus diesem Grund hat die Europäische Union das Projekt GAIA-X ins Leben gerufen, dessen Ziel es ist, die nächste Generation der Dateninfrastruktur für Europa und seine Unternehmen zu schaffen. Das GAIA-X-Reifegradmodell bietet einen Ansatz zur Einordnung von Unternehmen in verschiedene Entwicklungsstufen und liefert konkrete Anforderungen für die Weiterentwicklung entlang eines vorgegebenen Entwicklungspfades hin zu einem vollwertigen Teilnehmer an der föderierten GAIA-X-Dateninfrastruktur.
Nachhaltiges Wirtschaften und verantwortungsvoller Umgang mit Ressourcen und Umwelt haben in der deutschen Gesellschaft einen hohen Stellenwert erlangt. Durch eine bessere Produktrückverfolgung und höhere Transparenz in Supply-Chains wird ressourcenschonendere Wertschöpfung ermöglicht. Zusätzlich fordern Kunden eine Einsicht in die Lieferkette und wollen über Produktion und Herkunft der Produkte informiert werden. Die Blockchain als verteilte Datenbank mit außerordentlicher Datensicherheit, Verfügbarkeit von Informationen in Echtzeit im gesamten Netzwerk und hoher Verlässlichkeit bietet dabei die technologische Grundlage, die Transparenz in den Lieferketten zu erhöhen. So können Daten zu Emissionen, Arbeitsbedingungen, Materialherkunft und weiteren Nachhaltigkeitskriterien entlang der Lieferkette aufgenommen und verteilt werden.
Die Anforderungen von Anwendern und Lösungsanbietern an eine Blockchain-Applikation flossen in eine Referenzarchitektur für diese ein. Dabei wurden z. B. die Gestaltung von Schnittstellen, benötigte Daten und Zugangsrichtlinien definiert. Gemeinsam mit dem DIN wurden die Ergebnisse in eine Standardisierung überführt. Anschließend wurden Gestaltungsempfehlungen zur Integration einer Blockchain-Applikation abgeleitet und die Ergebnisse in Unternehmen validiert.
Die Referenzarchitektur dient der erleichterten Entwicklung und Implementierung von Blockchain-Applikationen und damit einer Reduzierung von Kosten, Risiken und Zeitaufwand für KMU. Dem Kunden wird ein besserer Zugang zu Informationen über die Herkunft seiner Produkte ermöglicht, um ökologisch sinnvolle und nachhaltige Kaufentscheidungen treffen zu können.
Heutige Unternehmen sehen sich fortwährend verschärften Marktanforderungen ausgesetzt. Als Schlüssel zur Sicherung der Wettbewerbsfähigkeit erweist sich neben der Entwicklung neuer Produkte oder dem Einsatz innovativer Fertigungstechnologien insbesondere die Kooperation mit Kunden und Lieferanten, also die Bildung von Unternehmensnetzwerken entlang der Wertschöpfungskette. Unter dem Begriff Supply Chain Management (SCM) werden Software-Lösungen gehandelt, die Unternehmen bei der Gestaltung, Planung und Steuerung dieser Netzwerke unterstützen. Für potenzielle Anwender stellt sich der Markt für SCM-Software allerdings als sehr unübersichtlich dar. Die angebotenen Lösungen unterscheiden sich sowohl in ihren Funktionsumfängen wie auch in ihren Lösungsansätzen. Ziel: Dieser Marktspiegel verfolgt das Ziel, einen schnellen Überblick über den Markt für SCM-Software zu geben. Unternehmensfachleute und Entscheider erhalten so grundlegende Informationen über das aktuelle Angebot an SCM-Software. Der einführende Teil ordnet nach einer Begriffsbestimmung das Supply Chain Management in den Aufgabenkomplex der betrieblichen Planung und Steuerung ein. Es folgt eine grundlegende Bewertung der untersuchten SCM-Software im Hinblick auf die Unterstützung der relevanten Aufgaben. Anschließend folgen konkrete Hilfestellungen für die Durchführung eines Projektes zur Auswahl eines SCM-Systems, indem eine Methodik zur sicheren und effizienten Auswahl und Einführung von SCM-Lösungen vorgestellt wird. Abschließend gibt der Marktspiegel einen Überblick über die relevanten Anbieter und deren Software-Angebot. Im Rahmen einer SoftwareAuswahl bietet der Marktspiegel demnach eine erste Orientierung im Markt für SCM-Software. Im Verbund mit der Internetplattform IT-Matchmaker®
unterstützt der Marktspiegel darüber hinaus Unternehmen bei der konkreten Durchführung eines Auswahl-Projekts im SCM-Bereich. Konzept:
Grundlage des Marktspiegels ist ein Aufgabenmodell, aus dem ein standardisierter Fragenkatalog entwickelt wurde. Hiermit lassen sich die verschiedenen im Marktspiegel abgebildeten Softwarelösungen übersichtlich und detailliert darstellen und vergleichen. Gleichzeitig dient der Fragenkatalog als Vorlage für die Erstellung von Lastenheften im Rahmen konkreter Auswahlprojekte. Der Fragenkatalog sowie die jeweils aktuellen Marktdaten sind über den IT-Matchmaker® (www.itmatchmaker.com) der Trovarit AG verfügbar und unterstützen die Vorauswahl einer geeigneten SCM-Software.
Vor dem Hintergrund zunehmend komplexer und vernetzter Wertschöpfungsnetzwerke und in Zeiten sich ständig verändernder Rahmenbedingungen steigt für Unternehmen die Bedeutung einer resilienten Gestaltung ihrer Wertschöpfungsnetzwerke. Durch die hohe Vernetzung in einem Wertschöpfungsnetzwerk entsteht eine starke Abhängigkeit zwischen den einzelnen Akteuren. Störungen haben somit häufig nicht nur Auswirkungen auf einzelne Unternehmen, sondern betreffen verschiedene Akteure der Wertschöpfungsnetzwerke. Tritt nun eine Störung auf, kann sich diese im gesamten Netzwerk ausbreiten. Erst der konkrete Eintritt solcher Störungen im großen Umfang – wie zuletzt im Zuge der Corona-Pandemie oder der Blockierung des Suez-Kanals – führt Unternehmen regelmäßig dazu, sich mit ihren Wertschöpfungsnetzwerken auseinander zu setzen. Eine Möglichkeit zur Sicherung der Leistungsfähigkeit in einem volatilen Umfeld stellt der Aufbau von Resilienz dar. Insgesamt ist es hierbei das Ziel, Wertschöpfungsnetzwerke so zu gestalten, dass sie im Falle einer Störung möglichst wenig beeinträchtigt sind und schnell in den ursprünglichen oder einen besseren Zustand zurückkehren können.
Besonders in den letzten Krisen konnte die Anfälligkeit unserer gesamten Wert-schöpfungsnetzwerke beobachtet werden. Auch, wenn sich alle Krisen im Detail fundamental unterscheiden, haben alle Eines gemeinsam: eine frühzeitige Risiko-bewertung sowie eine gezielte Reaktion sind zur Bewältigung einer Krise notwen-dig. Um dies zu ermöglichen, wird im Forschungsprojekt PAIRS (Privacy-Aware, In-telligent and Resilient CrisiS Management) eine szenariobasierte Krisenmanage-mentplattform entwickelt, in welcher auf Basis von hybriden KI-Methoden Krisen identifiziert und deren Entwicklung antizipiert werden können. Hierfür wurden ver-schiedene Anwendungsfälle erfasst und deren domänenübergreifenden Wechselwirkungen systematisch untersucht.
Um auf steigende Kundenanforderungen und das sich änderndes Unternehmensumfeld reagieren zu können, müssen Unternehmen ihre Agilität und Reaktionsfähigkeit, insbesondere in Produktionsprozessen, erhöhen. Dafür müssen die Auswirkungen der möglichen Änderungen im Unternehmensumfeld auf die eigenen Geschäfts- und Produktionsprozesse untersucht und verstanden werden. Das Prozessverständnis allein reicht jedoch nicht: Es werden Daten aus unterschiedlichen Quellen benötigt, um die Ereignisse in der Prozess- und Lieferketten nachzuverfolgen, um das Material eindeutig zu charakterisieren und in Unternehmen vorhandene Algorithmen oder Modelle mit Eingangsdaten zu versorgen. Daher spielt die Datenverfügbarkeit eine wichtige Rolle auf dem Weg zur adaptiven Produktion. In diesem Beitrag wird die Wichtigkeit der Datenverfügbarkeit erläutert sowie ein Konzept der Datenplattform zum sicheren, überbetrieblichen Datenaustausch vorgestellt.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.
SCM-Software ist heute zur Unterstützung der übergreifenden Herstellabwicklung zwischen den Unternehmen bzw. Unternehmensstandorten etabliert. Der Blick in die Praxis verdeutlicht allerdings unterschiedlichste Leitideen, Anforderungsschwerpunkte und Lösungsansätze. Außerdem setzen die Softwareanbieter verschiedenste Branchenund Funktionsschwerpunkte, was die Vergleichbarkeit zusätzlich einschränkt. Der vorliegende Beitrag gibt einen Überblick über ein SCM-Funktionsmodell zur durchgängigen standortübergreifenden und -internen Herstellabwicklung zur Bewertung der verfügbaren SCM-Software.
Produzierende Unternehmen sind heutzutage aufgrund zunehmender Konkurrenz aus Niedriglohnländern und eines schrumpfenden Technologievorsprungs einem enormen Kostendruck ausgesetzt, sodass Konzepte zur Steigerung der Produktivität erforderlich werden. Diese Konzepte sind vor allem auf die Optimierung innerbetrieblicher Abläufe auf Basis von Rückmeldedaten ausgerichtet. Eine notwendige Bedingung für das Ausschöpfen datenbasierter Wertschöpfungspotenziale ist eine konsistente und widerspruchsfreie Datenbasis. Mit dem Forschungsprojekt „Anwendung der Datenfusion bei der Erfassung und Speicherung betrieblicher Rückmeldedaten (DaFuER)“ wird demgemäß das Ziel verfolgt, die Erhöhung der Datenqualität von betrieblichen Rückmeldedaten durch die Anwendung von Methoden der Datenfusion zu ermöglichen.
Als Ergebnis des Forschungsprojekts wird in diesem Leitfaden eine Methode zur anwendungsfallspezifischen Ableitung geeigneter Methoden der Datenfusion dargelegt. Zunächst erfolgt die Definition des Anwendungsfalls. Dabei wird zur Ermittlung relevanter Informationsbedarfe den Anwendenden der Methodik eine Übersicht bereitgestellt, welche die verschiedenen für die Produktionsplanung und steuerung benötigten Informationen enthält. Außerdem werden Datenquellen anhand der Art der Datenerfassung klassifiziert. Diese Klassifikation ist die Grundlage für die Identifikation der im jeweiligen Anwendungsfall zur Verfügung stehenden Datenquellen.
Im Folgenden werden aus den verfügbaren Datenquellen diejenigen ermittelt, welche fusioniert werden sollen. Dazu wurde eine tabellarische Übersicht erstellt, mit Hilfe derer Datenquellen den Informationen zugeordnet werden, die sie bereitstellen. Weiterhin werden diese Datenquellen hinsichtlich ihrer Datenqualität auf Basis ausgewählter Qualitätsmerkmale bewertet. Für eine benötigte Information wählen die Anwendenden aus den ihnen zur Verfügung stehenden Datenquellen diejenigen zur Fusion aus, welche den Informationsbedarf decken und sich hinsichtlich der Erfüllung der Qualitätsmerkmale komplementieren.
Zuletzt wird eine für den konkreten Anwendungsfall geeignete Fusionsmethode der ausgewählten Datenquellen bestimmt. Grundlage dafür ist eine morphologische Untersuchung von Datenquellen. Durch eine Clusteranalyse möglicher Fehlerarten in Abhängigkeit der Kombination von verschiedenen morphologischen Merkmalsausprägungen werden prozesstypische Fehler der Datenfusion abgeleitet. Somit ist man in der Lage, anhand der ausgewählten Datenquellen die spezifischen Herausforderungen bei der Datenfusion zu identifizieren. Für die finale Auswahl einer für den Anwendungsfall geeigneten Datenfusionsmethode wurden für die ermittelten Prozessfehler die jeweiligen Eignungen der verschiedenen Methoden bewertet. Auf Grundlage dieser Bewertung wählen die Anwendenden schlussendlich diejenige Methode aus, die für die von ihnen identifizierten Herausforderungen am besten geeignet ist.
DaFuER - Anwendung der Datenfusion bei der Erfassung und Speicherung
betrieblicher Rückmeldedaten
(2021)
Zentrale Herausforderung der Globalisierung und Digitalisierung für produzierende Unternehmen in Deutschland sind steigende Kundenanforderungen nach individuelleren Produkten bei gleichzeitig stetig kürzer werdenden Lieferzeiten. Insbesondere für kleine und mittlere Unternehmen steigt der Kosten- und Innovationsdruck durch wachsende Konkurrenz aus Niedriglohnländern und einen schrumpfen-den Technologievorsprung. Aus diesen Herausforderungen entsteht die Anforderung einer echtzeitfähigen und effizienten Produktionsplanung und -steuerung, die eine fundierte und kurzfristige Entscheidungsfindung erlaubt. Grundlage für eine leistungsstarke Produktionsplanung und -steuerung ist eine hohe Informationsverfügbarkeit. Das allein ist jedoch keine hinreichende Bedingung für eine effiziente Produktionsplanung und -steuerung, da nur bei einer ausreichenden Datenqualität eine zuverlässige Entscheidungsfindung möglich ist. Ferner bieten die zunehmende Digitalisierung und Vernetzung steigendes Nutzenpotenzial für datenbasierte Wertschöpfung, was die Relevanz einer hohen Datenqualität zusätzlich verstärkt. Zentrale Herausforderung der Steigerung der Datenqualität sind die Investitionskosten der Implementierung von entsprechenden Maßnahmen. Dabei zeichnen sich kleine und mittlere Unternehmen (KMU) insbesondere durch eine beschränkte Investitionsfähigkeit aus.
Auf die Erhöhung der Datenqualität eines aggregierten Datensatzes zielt die Datenfusion durch Kombination verschiedener Datenquellen ab. Die unterschiedlichsten Methoden der Datenfusion werden bereits seit längerem in nicht produktionsnahen Bereichen an-gewendet. Das Forschungsprojekt „DaFuER“ unterstützt bei dem Transfer der Methoden in das Produktionsumfeld. Hierbei werden vor allem kleine und mittlere Unternehmen bei der Optimierung ihrer Datenqualität angeleitet, indem eine transparente Entscheidungsunterstützung u. a. durch einen Leitfaden zur Datenfusion und ein Online-Tool ermöglicht wird.
Schwerwiegende Gesundheits- und Wirtschaftskrisen wie die Weltfinanzkrise (ab 2007) oder die Covid-19-Pandemie im Jahr 2020 haben aufgezeigt, in welch turbulentem Umfeld sich die globalisierte Welt heutzutage befindet und wie schnell gewohnte Abläufe in Wertschöpfungsketten unterbrochen und angepasst werden müssen. Die alltäglichen Anforderungen in dem sich immer schneller wandelnden digitalen Zeitalter wachsen stetig und sind komplexer denn je.
Unternehmen sind angehalten, immer kurzzyklischer auf sich ändernde
Bedingungen und Störungen zu reagieren und strategische Entscheidüngen
zur Gestaltung von Wertschöpfungsketten zu treffen. Nur mithilfe
einer umfassenden Datengrundlage und -kommunikation kann die strategische Planung der Supply-Chain effektiv erfolgen und somit die benötigte Robustheit und Agilität ermöglicht werden.
Supply-Chain-Management 4.0
(2020)
Viele Unternehmen erhoffen sich enorme Wachstumschancen durch Digitalisierung, Vernetzung und neue Technologien. Daher ist der Reifegrad der Digitalisierung eines Unternehmens von besonderer Bedeutung, um den Status des Unternehmens zu überprüfen. Im Rahmen der acatech-Studie wurde ein Index entwickelt, um den Reifegrad von produzierenden Unternehmen zu bestimmen. Diese Bewertung berücksichtigt jedoch den Bereich des Lieferkettenmanagements nicht ausreichend. Infolgedessen müssen diesbezüglich weitere Merkmale entwickelt werden, um den Reifegrad der Digitalisierung innerhalb einer Lieferkette zu bestimmen. Der Schwerpunkt liegt auf Datenverarbeitung, Kommunikation, Schnittstellenarbeit und Sicherheit, Netzwerkzusammenarbeit und Änderungsmanagement.
Durch die Globalisierung haben sich in den letzten Jahrzehnten überwiegend internationale und hochkomplexe Lieferketten entwickelt. Nationale und internationale Herausforderungen, wie beispielsweise der Brexit, die Corona-Pandemie, Handelskriege und Protektionismus oder auch verschiedene Naturkatastrophen haben in der Vergangenheit gezeigt, dass die Relevanz eines ganzheitlichen Supply-Chain-Risikomanagements durch den Anstieg der Komplexität in den Lieferketten stark gestiegen ist.
Dieser Artikel gibt einen einführenden Überblick über die Ziele des Forschungsprojekts ‚DaFuER‘ und das Vorgehen in demselben. Ziel des Forschungsprojekts ist es, Methoden der Datenfusion zur Steigerung der Datenqualität im Kontext betrieblicher Rückmeldedaten anzuwenden. Hierzu soll im Vorhaben die Frage beantwortet werden, wie durch Ansätze der Datenfusion eine hinreichende Qualität von Rückmeldedaten in der Produktion kosteneffizient sichergestellt werden kann. Das IGF-Vorhaben 20579 N der Forschungsvereinigung FIRe. V. ander RWTHAachen, Campus-Boulevard 55, 52074 Aachen wird über die AiF im Rahmen des Programms zur Förderung der industriellen Gemeinschaftsforschung (IGF) vom Bundesministerium für Wirtschaft und Energie (BMWi) aufgrund eines Beschlusses des Deutschen Bundestages gefördert.
Unvorhergesehene Effekte, wie beispielsweise die aktuelle Corona-Pandemie, können die Lieferkette eines Unternehmens maßgeblich beeinflussen. Die hochkomplexen Supply-Chains der heutigen Zeit stehen vor der Herausforderung, schnell und flexibel auf mögliche Störungen von außen zu reagieren. Ein ganzheitliches Supply-Chain- Risikomanagement hilft Ihnen bei der frühzeitigen Lokalisierung von Störungen und der Ableitung geeigneter Maßnahmen zur kurz- und langfristigen Stabilisierung der Lieferketten. Zu diesem Zweck haben wir vom FIR an der RWTH Aachen, aufbauend auf dem Industrie-4.0-Maturity-Index, ein cloudbasiertes Supply-Chain-Risiko-Assessment entwickelt, das durch den intuitiven Aufbau eine praxisorientierte Lösung im Bereich des Risikomanagements darstellt.
In diesem Whitepaper stellen wir Ihnen die Technologie Process-Mining vor und zeigen auf, welche enormen Potenziale in ihrer Anwendung liegen. Auch mit einer neuen Technologie ist jedoch ohne kompetente Anwendung
kein Erfolg erzielbar. Unser vorliegendes Whitepaper soll Ihnen dazu verhelfen, zu erkennen, welche Hürden Sie überwinden müssen, um das Potenzial von Process-Mining für sich zu heben, und wie wir vom FIR an der RWTH Aachen Ihnen bei der Umsetzung helfen können.
Insbesondere mittelständische Unternehmen weisen starke Defizite in der digitalen Vernetzung ihrer Produktion auf. Im Rahmen des industrienahen Forschungsprojekts DaFuER werden die State-of-the-Art-Methoden zur Datenfusion und Fehlerreduzierung bei datengetriebenen Rückmeldeprozessen näher analysiert und in industriellen Use-Cases validiert. So wird die Datenfusion auch im Alltag für reale Produktionsprozesse von kleinen und mittleren Unternehmen weiter erschlossen. Weiterhin werden häufig fehlerhafte Rückmeldedaten in Prozessen sowie mögliche Optimierungspotenziale aufgezeigt.
"Tracking & Tracing"-Systeme steigern merklich die Transparenz in der Produktion und der Lieferkette. Insbesondere Such-, Buchungs-, und Inventuraufwände sowie Schwund, Engpässe und Transportkosten lassen sich dadurch reduzieren. Die gewonnene Transparenz hilft bei der Erreichung einer flexiblen Produktion, sodass sich durch eine adaptive Planung und Steuerung bestehende Prozesse kontinuierlich verbessern lassen. Das jetzt erschienene Whitepaper beleuchtet Nutzen und Potenziale von Tracking & Tracing, stellt einen systematischen Ansatz zur Einführung von Tracking- und Tracing-Systemen vor und beschreibt hierbei anfallende Herausforderungen.
Das Physical Internet (PI) basiert auf einer physischen, digitalen und operativen Interkonnektivität, ohne die ein weltweit fragmentiertes und standardisiertes Gütertransportsystem nicht effizient arbeiten könnte. Zur Selbststeuerung von globalen Warenströmen sind valide Eingangsdaten notwendig . Darüber hinaus ist ein hohes Vertrauen in Steuerungsentscheidungen für eine weitreichende Akzeptanz aller Akteure und Kunden der Logistikbranche unabdingbar. Diese beiden Ziele können nur durch eine hohe Datenqualität erreicht werden. Neben der Erhöhung der Datenqualität durch Automatisierung oder Einsatz von erweiterter Sensorik bieten Methoden der Datenfusion und der Entscheidungsfusion große Potenziale. Dieser Beitrag beschreibt ein methodisches Vorgehen zur Analyse dieser Potenziale. Darüber hinaus wird anhand eines Transitcenters dieses Vorgehen beispielhaft durchgeführt.