Refine
Document Type
- Contribution to a Periodical (6)
- Part of a Book (4)
- Working Paper (3)
- Conference Proceeding (2)
- Book (1)
- Lecture (1)
- Internet Paper (1)
Language
- German (18) (remove)
Is part of the Bibliography
- no (18)
Keywords
- Auftragsabwicklung (1)
- Beratung (1)
- Big Data (2)
- Collaborative Planning (1)
- Cyber Security (1)
- Datenanalyse (1)
- Datenaustausch (1)
- Datenauswertung (1)
- Datenmanagement (1)
- Datensouveränität (1)
Institute
- Informationsmanagement (18) (remove)
Der Begriff „Digitaler Schatten“ steht für ein hinreichend genaues, digitales Abbild der Prozesse, Information und Daten eines Unternehmens. Dieses Abbild wird benötigt, um eine echtzeitfähige Auswertebasis aller relevanten Daten zu schaffen, um hieraus letztendlich Handlungsempfehlungen abzuleiten. Die Bildung des Digitalen Schattens ist damit ein zentrales Handlungsfeld von Industrie 4.0 und stellt die Grundlage für alle weitergehenden Aktivitäten dar.
Digitale Technologien sind ein wesentlicher Bestandteil der Wertschöpfungskette in der industriellen Praxis geworden. Die Digitalisierung hat die Produktion und den modernen Arbeitsplatz in den vergangenen Jahrzehnten auf eine Art beeinflusst, die mit keiner anderen technischen Entwicklung vergleichbar ist, und die nun der vierten industriellen Revolution den Weg ebnet.
Die Essenz von Industrie 4.0 ist die Vernetzung von Produktionssystemen mithilfe von IT und dem Internet der Dinge, um prognosefähig zu sein und die Produktion effizienter und flexibler zu gestalten. Wesentliche Befähiger dieser Vision sind Daten aus Prozessen, Anlagen und Ressourcen, aus denen für das Unternehmen entscheidungskritische Informationen gewonnen werden. Hieraus lassen sich Erkenntnisse ableiten, die bisher verborgene Wirkungszusammenhänge zutage fördern.
Prognosemodelle errechnen auf der Basis dieser Erkenntnisse mögliche Zukunftsszenarien und belegen sie mit Wahrscheinlichkeitswerten bezüglich ihres Eintritts. Durch die Vernetzung der Informationen unterschiedlicher Aufgaben, Funktionen und Domänen lassen sich Handlungsempfehlungen fundieren, wobei eine unüberschaubare Anzahl relevanter Parameter berücksichtigt wird. Der Produktion wird ähnlich dem Rennsport eine Ideallinie aufgezeigt, an der sie sich orientieren kann, um in kürzester Zeit optimierte Ergebnisse zu erzielen.
Das Management des Produktlebenszyklus ist eine komplexe Aufgabe, dessen volles Potenzial erst durch die Integration des gesamten Unternehmens erreicht wird. Um die Einbindung aller Fachabteilungen sicherzustellen, ist eine Potenzialuntersuchung notwendig, bei der Herausforderungen und mögliche Verbesserungen entlang des gesamten Produktlebenszyklus untersucht werden müssen. Der PLM-QuickCheck, den das FIR an der RWTH Aachen und das WZL der RWTH Aachen gemeinsam entwickeln, liefert hier einen möglichen Ansatz.
Unternehmen aller Branchen sehen sich mit immer neuen Anforderungen an den Produktentstehungsprozess konfrontiert. Um wettbewerbsfähig zu bleiben, müssen sie ihren Kunden eine höhere Variantenvielfalt bei gleichzeitig geringeren Produktentwicklungs- und Markteinführungszeiten bieten. Zur Realisierung dieser Ziele reagieren sie mit der Einführung von modularen Produktbaukästen und der Etablierung von global verteilten Wertschöpfungsnetzwerken.
Eine effiziente und durchgängige Unterstützung der Unternehmensfunktionen erfordert die Integration und das harmonische Zusammenspiel der IT-Systeme. Eine zwingende Voraussetzung für das Erreichen dieser Integration ist die Vereinheitlichung und Pflege des Fundaments der Systemlandschaft – der Stammdaten.
Im Rahmen der vernetzten Digitalisierung stehen insbesondere kleine und mittlere IT-Organisationen und IT-Dienstleister vor der großen Herausforderung, in einem immer dynamischer werdenden Umfeld Leistungen in hoher Qualität zu liefern. Die Verknüpfung dieser Leistungen mit den zu unterstützenden Geschäftsprozessen und Geschäftsmodellen gestaltet sich schwierig und erfordert eine service- und prozessorientierte Denkweise.
Zur Bewältigung dieser Herausforderungen und der Umsetzung des "service- und prozessorientierten Denkens" bietet das IT-Service-Management (ITSM) Methoden und Maßnahmen zur kundenorientierten, prozessgesteuerten und transparenten Erbringung von IT-Services. Trotz bestehender ITSM-spezifischer Referenzmodelle und Regelwerke werden die beschriebenen Methoden von kleinen und mittleren IT-Organisationen und IT-Dienstleistern kaum genutzt. Der Grund hierfür liegt unter anderem in der hohen Komplexität der Regelwerke und dem damit verbundenen großen Implementierungsaufwand. Es fehlt ein Vorgehen, das die Fähigkeiten und Möglichkeiten von kleinen und mittleren Unternehmen (KMU) berücksichtigt, um IT-Prozesse eigenständig hinsichtlich der Serviceorientierung zu bewerten und zu optimieren.
Das Ergebnis des Forschungsvorhabens "GradeIT" ist eine Vorgehensweise, die KMU dabei unterstützt, relevante IT-Service-Prozesse für sich selbst zu identifizieren, um diese dann eigenständig zu bewerten und auf Basis transparent dargestellter Wirkungszusammenhänge zu spezifischen Einflussfaktoren erfolgversprechende Handlungsempfehlungen auszusprechen.
Im Kontext Industrie 4.0 kommt der Erfassung der anfallenden Daten in der Produktion und deren Nutzung eine zentrale Bedeutung zu. Analysen betrieblicher Daten, welche auf verschiedenen Ebenen generiert werden, lassen Rückschlüsse und Erkenntnisse zur besseren Entscheidungsfindung zu. Die Basis für den Einsatz von Verfahren der Datenanalyse und -auswertung stellt ein hinreichend genaues Abbild der relevanten Daten - der Digitale Schatten - in der Auftragsabwicklung, Produktion, Entwicklung oder angrenzenden Bereichen dar.
Im Rahmen des vorliegenden Beitrages wird ein Modell für den Digitalen Schatten in der Auftragsabwicklung vorgestellt, welches die Basis für die Implementierung von Methoden der Datenanalytik darstellt.
Der High-Resolution-Supply-Chain-Management-Ansatz erlaubt es Unternehmen, in Echtzeit auf dynamische Einflüsse des Marktes reagieren zu können.
Echtzeitfähige Planungs- und Regelungsprozesse können den Planungsaufwand reduzieren und gleichzeitig mit den zur Verfügung stehenden Echtzeitinformationen die Planungsqualität verbessern.
Planungsprozesse auf Basis von Echtzeitinformationen setzen voraus, dass ein konsistenter Informationsaustausch zwischen den unterschiedlichen Planungsebenen besteht sowie ein hoher Autonomiegrad innerhalb der einzelnen Planungsinstanzen.
PLM trifft ERP
(2013)
Künstliche Intelligenz (KI) hat sich über die letzten Jahre stetig zu einem Thema mit strategischer Priorität für Unternehmen entwickelt. Das zeigt sich nicht zuletzt in der gesteigerten Investitionsbereitschaft deutscher Unternehmen in KI-Projekte. Wirtschaftliche Akteure haben erkannt, dass durch eine sinnvolle Nutzung von KI-Technologien Wettbewerbsvorteile erzielt werden können. Die vorliegende Studie legt das Augenmerk auf den industriellen Einsatz einer KI-Technologie, die bereits heute von vielen Unternehmen erfolgreich genutzt wird: Die natürliche Sprachverarbeitung (engl. Natural Language Processing, kurz NLP). Die wirtschaftlichen Potenziale der Technologie liegen dabei in ihrer Fähigkeit, betriebliche Abläufe zu automatisieren und die Schnittstelle zwischen Mensch und Maschine zu verbessern und zu vereinfachen. Ziel der Studie ist es, die Potenziale der NLP-Technologie für Unternehmen nutzbar zu machen, indem konkrete Anwendungsfälle und allgemeine Handlungsempfehlungen sowie Nutzen und Risiken aufgezeigt werden.
Künstliche Intelligenz (KI) hat als Technologie in den vergangenen Jahren Marktreife erlangt. Es existiert eine Vielzahl benutzerfreundlicher Produkte und Services, welche die Anwendung von KI im Alltag und im Unternehmen vereinfachen. Die Herausforderung, vor denen Anwendende, gerade im betriebswirtschaftlichen Kontext, stehen, ist nicht die technische Machbarkeit einer KI-Applikation, sondern deren organisatorisch und rechtlich zulässige Gestaltung. Zu einer zunehmenden Dynamik in der Gesetzgebung kommt ein gesellschaftliches Interesse an der Kontrolle und Transparenz über die für KI-Modelle erhobenen Daten. Die Diskussion über Datensouveränität im geschäftlichen und privaten Alltag rückt mehr und mehr in das Zentrum der öffentlichen Aufmerksamkeit.
Datenbasierte KI-Anwendungen stehen damit in einem Spannungsfeld zwischen den Potenzialen, die das Erheben und Teilen von Daten über Unternehmensgrenzen hinweg bietet, und der Herausforderung, die Datensouveränität der involvierten Personen zu wahren. Die vorliegende Studie soll erstens über die Auswirkungen der Datensouveränität und die damit verbundenen aktuellen und kommenden Regularien auf KI-Anwendungsfälle aufklären. Dafür wurden Expertinnen und Experten aus den Bereichen Recht, KI- und Organisationsforschung befragt. Zweitens zeigt die Studie Potenziale und Best Practices von KI-Anwendungsfällen mit überbetrieblichem Datenaustausch auf. Dafür wurden Fallstudien in Unternehmen durchgeführt, die bereits erfolgreich Datenaustausch in ihre Geschäftsmodelle integriert haben, um ihre KI-Applikationen zu betreiben und zu verbessern.